WEBVTT 00:00.050 --> 00:05.810 8주간의 여정 중 3일째에 오신 걸 환영해요 00:05.810 --> 00:09.470 오늘은 개척 시대 모델을 볼 거예요 00:09.470 --> 00:16.760 오늘 우리가 할 일은 이 다양한 모델을 깊이 파고들어 어떤 모델이 강하고 어떤 모델이 00:16.760 --> 00:21.920 약하며 어떤 차이가 있는지 알아내는 거예요. 00:21.920 --> 00:26.840 오늘 강의에서 명심해야 할 점은 두 모델의 차이점을 파악하고 상업적으로 00:26.840 --> 00:31.970 어떻게 사업을 진행할지 향후 프로젝트에 어떻게 적용할지 생각해 보세요 00:31.970 --> 00:35.570 언제 어떤 모델을 선택할지도요 00:35.600 --> 00:37.040 Get it, get it 해 보죠 00:37.100 --> 00:42.320 오늘은 6개의 다른 모델에 대해 이야기해 볼 텐데요 6개의 다른 00:42.350 --> 00:44.750 회사의 모델로 시작해 보죠 00:44.780 --> 00:47.270 오픈아이는 소개가 필요 없죠 00:47.420 --> 00:50.300 GPT가 가장 유명한 모델이죠 00:50.300 --> 00:53.090 0101 프리뷰도 물론 보고요 00:53.240 --> 01:01.310 챗GPT의 최신 모델은 사용자 인터페이스입니다 인터페이스를 통해 상호 작용을 할 01:01.310 --> 01:02.150 수 있죠 01:02.360 --> 01:05.180 인스로픽 모델도 살펴볼 거예요 01:05.210 --> 01:12.510 안트로픽은 샌프란시스코에 있는 오픈AI의 경쟁 업체예요 오픈아이를 떠난 사람들이 01:12.510 --> 01:16.380 설립했죠 그들의 모델은 클로드와 클로드예요 01:16.380 --> 01:19.200 사실, 세 가지 힘이 있어요 01:19.200 --> 01:21.300 가장 작은 건 하이쿠예요 01:21.330 --> 01:23.310 클로드 하이쿠와 소네트예요 01:23.310 --> 01:24.750 오퍼스가 있네요 01:24.810 --> 01:31.770 하지만 소네트는 훨씬 더 최근에 만들어진 작품들이기 때문에 최신 버전의 소네트가 01:31.770 --> 01:35.190 더 크고 비싼 작품들보다 더 강해요 01:35.190 --> 01:36.930 나중에 더 이해가 될 거예요 01:37.050 --> 01:42.360 클로드 3세예요 클로드의 작품 중 가장 강렬한 소네트 5편이 있죠 01:43.050 --> 01:50.580 구글에 제미니 제미니가 있어요 아마 가장 최근일 거예요 대부분 제미니 제미니를 잘 알죠 요즘 01:50.580 --> 01:55.530 구글 검색을 하면 제미니 제미니의 반응이 나오거든요 01:55.650 --> 02:00.720 제미니는 차세대 게임으로 구글에서 바르드로 불렸죠 02:01.320 --> 02:04.290 코어라는 이름은 less로 들어봤을 거예요 02:04.290 --> 02:11.880 캐나다 인공지능 회사로 래그라는 기술을 이용해 전문성을 확보하는 02:11.880 --> 02:14.220 것으로 유명하죠 02:14.220 --> 02:15.630 곧 알게 되겠죠 02:15.720 --> 02:18.930 그리고 메타에서 라마를 알게 되었죠 02:18.930 --> 02:20.940 우리도 라마를 통해 사용했어요 02:20.970 --> 02:25.710 이건 오픈 소스 모델입니다 여러분은 잘 모르시겠지만 메타에는 llama 02:25.950 --> 02:30.300 모델과 상호 작용을 하는 웹사이트 메타 인공지능도 있어요 02:30.300 --> 02:32.220 그걸 살펴볼 거예요 02:32.310 --> 02:39.540 여기서 당혹감은 조금 다릅니다 당혹감은 사실 LM으로 작동하는 인공지능으로 작동하는 검색 엔진으로 02:39.570 --> 02:43.230 우리가 얘기할 다른 모델도 사용할 수 있죠 02:43.230 --> 02:48.360 하지만 자체 모델도 있어요 약간 다른 괴물이죠 하지만 당혹스럽기도 02:48.360 --> 02:50.190 할 거예요 02:51.240 --> 02:58.290 전반적으로 llms의 능력은 정말 놀라워요 02:58.320 --> 03:06.330 상세하고 미묘한 질문을 분석하고 충분한 조사를 거친 후 구조적으로 03:06.330 --> 03:10.260 요약하는 데 매우 효과적이죠 03:10.260 --> 03:15.660 종종 소개와 요약이 있어요 제가 늘 사용하는 방법 중 03:15.660 --> 03:16.470 하나죠 03:16.660 --> 03:22.900 전반적으로 llm의 성능이 놀라울 정도로 뛰어나요 03:22.930 --> 03:28.300 몇 년 전만 해도 이렇게 빨리 완성할 줄은 아무도 몰랐어요 Get 03:28.300 --> 03:29.290 up 03:30.040 --> 03:36.010 또 좋은 것도 있어요. 많은 분들이 해보셨을 것 같은데, 저도 총알을 03:36.040 --> 03:41.080 몇 개 넣고, 몇 가지 메모만 넣고, 이것들을 이메일이나 03:41.110 --> 03:44.230 슬라이드로 바꿀 수 있나요? 03:44.560 --> 03:52.600 구체화하는 데 능숙하고 블로그 post를 만들거나 반복하는 데 능숙하죠 03:52.600 --> 03:55.360 어떤 걸 하면 어떤 건 좋아하고 어떤 건 싫어하죠 03:55.360 --> 03:58.330 피드백을 주고 계속 진행할 수 있어요 03:58.330 --> 04:00.340 아주 효과적인 작업 방식이죠 04:00.340 --> 04:05.260 부조종사 구조가 정말 효과적이에요 04:06.220 --> 04:09.340 물론 코딩도 있고요 04:09.340 --> 04:17.050 그리고 아마도 많은 사람들에게 가장 놀라운 것은 llms가 코드를 작성하고 디버깅을 하고 문제를 04:17.050 --> 04:21.010 해결하는 데에 아주 뛰어나다는 것일 거예요 04:21.190 --> 04:24.320 정말 놀라운 일이죠 04:24.320 --> 04:28.610 저도 아주 복잡한 걸 작업하면서 그런 경험을 했어요 제가 04:28.610 --> 04:34.040 심오한 주제 분야의 전문성을 갖고 있다고 믿는 거죠 꽤 복잡한 오류가 있었어요 04:34.040 --> 04:41.720 클로드에 상세 정보와 스택 트레이스를 넣으면 무엇이 잘못됐는지에 대한 아주 정확한 설명만 갖고 오는 04:41.720 --> 04:47.750 게 아니라 오른쪽에 아티팩트로 보이는 그걸 고칠 코드도 갖고 오죠 04:47.750 --> 04:50.330 정말 놀라워요 04:50.330 --> 04:51.830 정말 놀라워요 04:52.010 --> 04:56.210 사실 이런 건 종종∙∙∙ 붙여넣기를 하려고 하면 스택 오버플로에서 04:56.240 --> 04:57.470 찾아도 답이 없어요 04:57.470 --> 05:02.840 역류하는 스택 오버플로의 답을 넘어설 수 있어요 05:02.840 --> 05:05.990 무슨 일이 일어나는지 제대로 통찰하는 것 같아요 05:06.020 --> 05:13.280 그래서 스택 오버플로에서 트래픽이 크게 하락한 게 놀랍지 않은 것 05:13.280 --> 05:14.120 같아요 05:14.150 --> 05:22.370 2022년 Q4 이후부터 큰 변화가 일어났습니다 챗GPT가 출시된 시기죠 05:22.610 --> 05:31.800 그래서 확실히 패러다임을 바꿨어요 우리 문제를 조사하는 기술에 대한 05:31.800 --> 05:33.930 패러다임요 05:33.960 --> 05:35.100 아주 효과적이죠 05:35.100 --> 05:41.640 여러분도 저희가 하는 것 중에 막히는 게 있다면 클로드나 오픈라이 GPT에 도전해 05:41.670 --> 05:42.570 보세요 05:43.560 --> 05:45.510 그럼 어디가 약점일까요? 05:45.510 --> 05:47.010 그들이 힘들어하는 건 무엇일까요? 05:47.010 --> 05:49.230 인류에게 아직 기회가 있을까요? 05:49.260 --> 05:56.730 우선, 상세한 지식이 필요한 특수한 대상에는 그리 강한 05:56.730 --> 05:59.190 힘이 없어요 05:59.280 --> 06:02.250 대부분의 llm은 아직 박사 단계가 아니에요 06:02.280 --> 06:09.090 거의 모든 단어를 써야 했어요 왜냐하면 몇 주 전만 해도 10월에 클로드 최신 버전이 06:09.090 --> 06:16.620 나왔거든요 최신 클로드 3요 Put 5개의 소네트 수학, 물리, 06:16.710 --> 06:23.070 화학에서 박사 수준을 넘어섰어요 06:23.190 --> 06:29.220 이 모델들이 순식간에 박사 수준을 달성하는 걸 볼 수 있었죠 06:29.220 --> 06:30.360 아직까진 클로드뿐이에요 06:30.360 --> 06:36.540 다른 사람들도 마찬가지겠지만 그들은 특정 과학 분야에 있고 사업 분야 06:36.540 --> 06:42.960 같은 특정 영역에 있어서 그 분야의 전문가가 가진 전문 지식이 없어요 06:43.530 --> 06:46.260 둘째, 최근 사건들요 06:46.260 --> 06:52.170 모델들은 GPT를 위한 지식 제한 시간까지 훈련받아요 06:52.200 --> 06:53.370 작년 10월요 06:53.370 --> 06:58.470 그 이후에 나온 질문에 대답할 수 없게 되죠 06:58.500 --> 07:01.740 그리고 이상한 사각지대도 있어요 07:01.740 --> 07:04.260 Get it, Get it, Get it, Get it! 어떤 질문들은 그냥 틀릴 수도 있어요 07:04.260 --> 07:08.580 그리고 틀렸을 때 걱정되는 점은 get it 부문은 자신의 반응에 07:08.580 --> 07:10.440 확신이 있다는 거죠 07:10.440 --> 07:14.550 불확실하다는 사실을 자발적으로 말하지 않죠 07:14.550 --> 07:19.320 정답을 맞히는 것과 같은 수준의 확신에 찬 답변을 할 뿐이죠. Get up! Get 07:19.320 --> 07:20.160 up! 07:20.280 --> 07:28.530 그건 당연히 우려를 낳죠 환각을 보거나 새로운 정보를 떠올릴 때요 본인은 모르고 07:28.530 --> 07:32.190 자신 있게 그렇게 하는 거죠 07:32.190 --> 07:38.670 몇 가지 예제를 보고 그런 맹점 뒤에 있는 이유를 말씀드리죠