You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 

322 lines
9.0 KiB

WEBVTT
00:00.050 --> 00:05.810
8주간의 여정 중 3일째에 오신 걸 환영해요
00:05.810 --> 00:09.470
오늘은 개척 시대 모델을 볼 거예요
00:09.470 --> 00:16.760
오늘 우리가 할 일은 이 다양한 모델을 깊이 파고들어 어떤 모델이 강하고 어떤 모델이
00:16.760 --> 00:21.920
약하며 어떤 차이가 있는지 알아내는 거예요.
00:21.920 --> 00:26.840
오늘 강의에서 명심해야 할 점은 두 모델의 차이점을 파악하고 상업적으로
00:26.840 --> 00:31.970
어떻게 사업을 진행할지 향후 프로젝트에 어떻게 적용할지 생각해 보세요
00:31.970 --> 00:35.570
언제 어떤 모델을 선택할지도요
00:35.600 --> 00:37.040
Get it, get it 해 보죠
00:37.100 --> 00:42.320
오늘은 6개의 다른 모델에 대해 이야기해 볼 텐데요 6개의 다른
00:42.350 --> 00:44.750
회사의 모델로 시작해 보죠
00:44.780 --> 00:47.270
오픈아이는 소개가 필요 없죠
00:47.420 --> 00:50.300
GPT가 가장 유명한 모델이죠
00:50.300 --> 00:53.090
0101 프리뷰도 물론 보고요
00:53.240 --> 01:01.310
챗GPT의 최신 모델은 사용자 인터페이스입니다 인터페이스를 통해 상호 작용을 할
01:01.310 --> 01:02.150
수 있죠
01:02.360 --> 01:05.180
인스로픽 모델도 살펴볼 거예요
01:05.210 --> 01:12.510
안트로픽은 샌프란시스코에 있는 오픈AI의 경쟁 업체예요 오픈아이를 떠난 사람들이
01:12.510 --> 01:16.380
설립했죠 그들의 모델은 클로드와 클로드예요
01:16.380 --> 01:19.200
사실, 세 가지 힘이 있어요
01:19.200 --> 01:21.300
가장 작은 건 하이쿠예요
01:21.330 --> 01:23.310
클로드 하이쿠와 소네트예요
01:23.310 --> 01:24.750
오퍼스가 있네요
01:24.810 --> 01:31.770
하지만 소네트는 훨씬 더 최근에 만들어진 작품들이기 때문에 최신 버전의 소네트가
01:31.770 --> 01:35.190
더 크고 비싼 작품들보다 더 강해요
01:35.190 --> 01:36.930
나중에 더 이해가 될 거예요
01:37.050 --> 01:42.360
클로드 3세예요 클로드의 작품 중 가장 강렬한 소네트 5편이 있죠
01:43.050 --> 01:50.580
구글에 제미니 제미니가 있어요 아마 가장 최근일 거예요 대부분 제미니 제미니를 잘 알죠 요즘
01:50.580 --> 01:55.530
구글 검색을 하면 제미니 제미니의 반응이 나오거든요
01:55.650 --> 02:00.720
제미니는 차세대 게임으로 구글에서 바르드로 불렸죠
02:01.320 --> 02:04.290
코어라는 이름은 less로 들어봤을 거예요
02:04.290 --> 02:11.880
캐나다 인공지능 회사로 래그라는 기술을 이용해 전문성을 확보하는
02:11.880 --> 02:14.220
것으로 유명하죠
02:14.220 --> 02:15.630
곧 알게 되겠죠
02:15.720 --> 02:18.930
그리고 메타에서 라마를 알게 되었죠
02:18.930 --> 02:20.940
우리도 라마를 통해 사용했어요
02:20.970 --> 02:25.710
이건 오픈 소스 모델입니다 여러분은 잘 모르시겠지만 메타에는 llama
02:25.950 --> 02:30.300
모델과 상호 작용을 하는 웹사이트 메타 인공지능도 있어요
02:30.300 --> 02:32.220
그걸 살펴볼 거예요
02:32.310 --> 02:39.540
여기서 당혹감은 조금 다릅니다 당혹감은 사실 LM으로 작동하는 인공지능으로 작동하는 검색 엔진으로
02:39.570 --> 02:43.230
우리가 얘기할 다른 모델도 사용할 수 있죠
02:43.230 --> 02:48.360
하지만 자체 모델도 있어요 약간 다른 괴물이죠 하지만 당혹스럽기도
02:48.360 --> 02:50.190
할 거예요
02:51.240 --> 02:58.290
전반적으로 llms의 능력은 정말 놀라워요
02:58.320 --> 03:06.330
상세하고 미묘한 질문을 분석하고 충분한 조사를 거친 후 구조적으로
03:06.330 --> 03:10.260
요약하는 데 매우 효과적이죠
03:10.260 --> 03:15.660
종종 소개와 요약이 있어요 제가 늘 사용하는 방법 중
03:15.660 --> 03:16.470
하나죠
03:16.660 --> 03:22.900
전반적으로 llm의 성능이 놀라울 정도로 뛰어나요
03:22.930 --> 03:28.300
몇 년 전만 해도 이렇게 빨리 완성할 줄은 아무도 몰랐어요 Get
03:28.300 --> 03:29.290
up
03:30.040 --> 03:36.010
또 좋은 것도 있어요. 많은 분들이 해보셨을 것 같은데, 저도 총알을
03:36.040 --> 03:41.080
몇 개 넣고, 몇 가지 메모만 넣고, 이것들을 이메일이나
03:41.110 --> 03:44.230
슬라이드로 바꿀 수 있나요?
03:44.560 --> 03:52.600
구체화하는 데 능숙하고 블로그 post를 만들거나 반복하는 데 능숙하죠
03:52.600 --> 03:55.360
어떤 걸 하면 어떤 건 좋아하고 어떤 건 싫어하죠
03:55.360 --> 03:58.330
피드백을 주고 계속 진행할 수 있어요
03:58.330 --> 04:00.340
아주 효과적인 작업 방식이죠
04:00.340 --> 04:05.260
부조종사 구조가 정말 효과적이에요
04:06.220 --> 04:09.340
물론 코딩도 있고요
04:09.340 --> 04:17.050
그리고 아마도 많은 사람들에게 가장 놀라운 것은 llms가 코드를 작성하고 디버깅을 하고 문제를
04:17.050 --> 04:21.010
해결하는 데에 아주 뛰어나다는 것일 거예요
04:21.190 --> 04:24.320
정말 놀라운 일이죠
04:24.320 --> 04:28.610
저도 아주 복잡한 걸 작업하면서 그런 경험을 했어요 제가
04:28.610 --> 04:34.040
심오한 주제 분야의 전문성을 갖고 있다고 믿는 거죠 꽤 복잡한 오류가 있었어요
04:34.040 --> 04:41.720
클로드에 상세 정보와 스택 트레이스를 넣으면 무엇이 잘못됐는지에 대한 아주 정확한 설명만 갖고 오는
04:41.720 --> 04:47.750
게 아니라 오른쪽에 아티팩트로 보이는 그걸 고칠 코드도 갖고 오죠
04:47.750 --> 04:50.330
정말 놀라워요
04:50.330 --> 04:51.830
정말 놀라워요
04:52.010 --> 04:56.210
사실 이런 건 종종∙∙∙ 붙여넣기를 하려고 하면 스택 오버플로에서
04:56.240 --> 04:57.470
찾아도 답이 없어요
04:57.470 --> 05:02.840
역류하는 스택 오버플로의 답을 넘어설 수 있어요
05:02.840 --> 05:05.990
무슨 일이 일어나는지 제대로 통찰하는 것 같아요
05:06.020 --> 05:13.280
그래서 스택 오버플로에서 트래픽이 크게 하락한 게 놀랍지 않은 것
05:13.280 --> 05:14.120
같아요
05:14.150 --> 05:22.370
2022년 Q4 이후부터 큰 변화가 일어났습니다 챗GPT가 출시된 시기죠
05:22.610 --> 05:31.800
그래서 확실히 패러다임을 바꿨어요 우리 문제를 조사하는 기술에 대한
05:31.800 --> 05:33.930
패러다임요
05:33.960 --> 05:35.100
아주 효과적이죠
05:35.100 --> 05:41.640
여러분도 저희가 하는 것 중에 막히는 게 있다면 클로드나 오픈라이 GPT에 도전해
05:41.670 --> 05:42.570
보세요
05:43.560 --> 05:45.510
그럼 어디가 약점일까요?
05:45.510 --> 05:47.010
그들이 힘들어하는 건 무엇일까요?
05:47.010 --> 05:49.230
인류에게 아직 기회가 있을까요?
05:49.260 --> 05:56.730
우선, 상세한 지식이 필요한 특수한 대상에는 그리 강한
05:56.730 --> 05:59.190
힘이 없어요
05:59.280 --> 06:02.250
대부분의 llm은 아직 박사 단계가 아니에요
06:02.280 --> 06:09.090
거의 모든 단어를 써야 했어요 왜냐하면 몇 주 전만 해도 10월에 클로드 최신 버전이
06:09.090 --> 06:16.620
나왔거든요 최신 클로드 3요 Put 5개의 소네트 수학, 물리,
06:16.710 --> 06:23.070
화학에서 박사 수준을 넘어섰어요
06:23.190 --> 06:29.220
이 모델들이 순식간에 박사 수준을 달성하는 걸 볼 수 있었죠
06:29.220 --> 06:30.360
아직까진 클로드뿐이에요
06:30.360 --> 06:36.540
다른 사람들도 마찬가지겠지만 그들은 특정 과학 분야에 있고 사업 분야
06:36.540 --> 06:42.960
같은 특정 영역에 있어서 그 분야의 전문가가 가진 전문 지식이 없어요
06:43.530 --> 06:46.260
둘째, 최근 사건들요
06:46.260 --> 06:52.170
모델들은 GPT를 위한 지식 제한 시간까지 훈련받아요
06:52.200 --> 06:53.370
작년 10월요
06:53.370 --> 06:58.470
그 이후에 나온 질문에 대답할 수 없게 되죠
06:58.500 --> 07:01.740
그리고 이상한 사각지대도 있어요
07:01.740 --> 07:04.260
Get it, Get it, Get it, Get it! 어떤 질문들은 그냥 틀릴 수도 있어요
07:04.260 --> 07:08.580
그리고 틀렸을 때 걱정되는 점은 get it 부문은 자신의 반응에
07:08.580 --> 07:10.440
확신이 있다는 거죠
07:10.440 --> 07:14.550
불확실하다는 사실을 자발적으로 말하지 않죠
07:14.550 --> 07:19.320
정답을 맞히는 것과 같은 수준의 확신에 찬 답변을 할 뿐이죠. Get up! Get
07:19.320 --> 07:20.160
up!
07:20.280 --> 07:28.530
그건 당연히 우려를 낳죠 환각을 보거나 새로운 정보를 떠올릴 때요 본인은 모르고
07:28.530 --> 07:32.190
자신 있게 그렇게 하는 거죠
07:32.190 --> 07:38.670
몇 가지 예제를 보고 그런 맹점 뒤에 있는 이유를 말씀드리죠