From the uDemy course on LLM engineering.
https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models
You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
322 lines
9.0 KiB
322 lines
9.0 KiB
WEBVTT |
|
|
|
00:00.050 --> 00:05.810 |
|
8주간의 여정 중 3일째에 오신 걸 환영해요 |
|
|
|
00:05.810 --> 00:09.470 |
|
오늘은 개척 시대 모델을 볼 거예요 |
|
|
|
00:09.470 --> 00:16.760 |
|
오늘 우리가 할 일은 이 다양한 모델을 깊이 파고들어 어떤 모델이 강하고 어떤 모델이 |
|
|
|
00:16.760 --> 00:21.920 |
|
약하며 어떤 차이가 있는지 알아내는 거예요. |
|
|
|
00:21.920 --> 00:26.840 |
|
오늘 강의에서 명심해야 할 점은 두 모델의 차이점을 파악하고 상업적으로 |
|
|
|
00:26.840 --> 00:31.970 |
|
어떻게 사업을 진행할지 향후 프로젝트에 어떻게 적용할지 생각해 보세요 |
|
|
|
00:31.970 --> 00:35.570 |
|
언제 어떤 모델을 선택할지도요 |
|
|
|
00:35.600 --> 00:37.040 |
|
Get it, get it 해 보죠 |
|
|
|
00:37.100 --> 00:42.320 |
|
오늘은 6개의 다른 모델에 대해 이야기해 볼 텐데요 6개의 다른 |
|
|
|
00:42.350 --> 00:44.750 |
|
회사의 모델로 시작해 보죠 |
|
|
|
00:44.780 --> 00:47.270 |
|
오픈아이는 소개가 필요 없죠 |
|
|
|
00:47.420 --> 00:50.300 |
|
GPT가 가장 유명한 모델이죠 |
|
|
|
00:50.300 --> 00:53.090 |
|
0101 프리뷰도 물론 보고요 |
|
|
|
00:53.240 --> 01:01.310 |
|
챗GPT의 최신 모델은 사용자 인터페이스입니다 인터페이스를 통해 상호 작용을 할 |
|
|
|
01:01.310 --> 01:02.150 |
|
수 있죠 |
|
|
|
01:02.360 --> 01:05.180 |
|
인스로픽 모델도 살펴볼 거예요 |
|
|
|
01:05.210 --> 01:12.510 |
|
안트로픽은 샌프란시스코에 있는 오픈AI의 경쟁 업체예요 오픈아이를 떠난 사람들이 |
|
|
|
01:12.510 --> 01:16.380 |
|
설립했죠 그들의 모델은 클로드와 클로드예요 |
|
|
|
01:16.380 --> 01:19.200 |
|
사실, 세 가지 힘이 있어요 |
|
|
|
01:19.200 --> 01:21.300 |
|
가장 작은 건 하이쿠예요 |
|
|
|
01:21.330 --> 01:23.310 |
|
클로드 하이쿠와 소네트예요 |
|
|
|
01:23.310 --> 01:24.750 |
|
오퍼스가 있네요 |
|
|
|
01:24.810 --> 01:31.770 |
|
하지만 소네트는 훨씬 더 최근에 만들어진 작품들이기 때문에 최신 버전의 소네트가 |
|
|
|
01:31.770 --> 01:35.190 |
|
더 크고 비싼 작품들보다 더 강해요 |
|
|
|
01:35.190 --> 01:36.930 |
|
나중에 더 이해가 될 거예요 |
|
|
|
01:37.050 --> 01:42.360 |
|
클로드 3세예요 클로드의 작품 중 가장 강렬한 소네트 5편이 있죠 |
|
|
|
01:43.050 --> 01:50.580 |
|
구글에 제미니 제미니가 있어요 아마 가장 최근일 거예요 대부분 제미니 제미니를 잘 알죠 요즘 |
|
|
|
01:50.580 --> 01:55.530 |
|
구글 검색을 하면 제미니 제미니의 반응이 나오거든요 |
|
|
|
01:55.650 --> 02:00.720 |
|
제미니는 차세대 게임으로 구글에서 바르드로 불렸죠 |
|
|
|
02:01.320 --> 02:04.290 |
|
코어라는 이름은 less로 들어봤을 거예요 |
|
|
|
02:04.290 --> 02:11.880 |
|
캐나다 인공지능 회사로 래그라는 기술을 이용해 전문성을 확보하는 |
|
|
|
02:11.880 --> 02:14.220 |
|
것으로 유명하죠 |
|
|
|
02:14.220 --> 02:15.630 |
|
곧 알게 되겠죠 |
|
|
|
02:15.720 --> 02:18.930 |
|
그리고 메타에서 라마를 알게 되었죠 |
|
|
|
02:18.930 --> 02:20.940 |
|
우리도 라마를 통해 사용했어요 |
|
|
|
02:20.970 --> 02:25.710 |
|
이건 오픈 소스 모델입니다 여러분은 잘 모르시겠지만 메타에는 llama |
|
|
|
02:25.950 --> 02:30.300 |
|
모델과 상호 작용을 하는 웹사이트 메타 인공지능도 있어요 |
|
|
|
02:30.300 --> 02:32.220 |
|
그걸 살펴볼 거예요 |
|
|
|
02:32.310 --> 02:39.540 |
|
여기서 당혹감은 조금 다릅니다 당혹감은 사실 LM으로 작동하는 인공지능으로 작동하는 검색 엔진으로 |
|
|
|
02:39.570 --> 02:43.230 |
|
우리가 얘기할 다른 모델도 사용할 수 있죠 |
|
|
|
02:43.230 --> 02:48.360 |
|
하지만 자체 모델도 있어요 약간 다른 괴물이죠 하지만 당혹스럽기도 |
|
|
|
02:48.360 --> 02:50.190 |
|
할 거예요 |
|
|
|
02:51.240 --> 02:58.290 |
|
전반적으로 llms의 능력은 정말 놀라워요 |
|
|
|
02:58.320 --> 03:06.330 |
|
상세하고 미묘한 질문을 분석하고 충분한 조사를 거친 후 구조적으로 |
|
|
|
03:06.330 --> 03:10.260 |
|
요약하는 데 매우 효과적이죠 |
|
|
|
03:10.260 --> 03:15.660 |
|
종종 소개와 요약이 있어요 제가 늘 사용하는 방법 중 |
|
|
|
03:15.660 --> 03:16.470 |
|
하나죠 |
|
|
|
03:16.660 --> 03:22.900 |
|
전반적으로 llm의 성능이 놀라울 정도로 뛰어나요 |
|
|
|
03:22.930 --> 03:28.300 |
|
몇 년 전만 해도 이렇게 빨리 완성할 줄은 아무도 몰랐어요 Get |
|
|
|
03:28.300 --> 03:29.290 |
|
up |
|
|
|
03:30.040 --> 03:36.010 |
|
또 좋은 것도 있어요. 많은 분들이 해보셨을 것 같은데, 저도 총알을 |
|
|
|
03:36.040 --> 03:41.080 |
|
몇 개 넣고, 몇 가지 메모만 넣고, 이것들을 이메일이나 |
|
|
|
03:41.110 --> 03:44.230 |
|
슬라이드로 바꿀 수 있나요? |
|
|
|
03:44.560 --> 03:52.600 |
|
구체화하는 데 능숙하고 블로그 post를 만들거나 반복하는 데 능숙하죠 |
|
|
|
03:52.600 --> 03:55.360 |
|
어떤 걸 하면 어떤 건 좋아하고 어떤 건 싫어하죠 |
|
|
|
03:55.360 --> 03:58.330 |
|
피드백을 주고 계속 진행할 수 있어요 |
|
|
|
03:58.330 --> 04:00.340 |
|
아주 효과적인 작업 방식이죠 |
|
|
|
04:00.340 --> 04:05.260 |
|
부조종사 구조가 정말 효과적이에요 |
|
|
|
04:06.220 --> 04:09.340 |
|
물론 코딩도 있고요 |
|
|
|
04:09.340 --> 04:17.050 |
|
그리고 아마도 많은 사람들에게 가장 놀라운 것은 llms가 코드를 작성하고 디버깅을 하고 문제를 |
|
|
|
04:17.050 --> 04:21.010 |
|
해결하는 데에 아주 뛰어나다는 것일 거예요 |
|
|
|
04:21.190 --> 04:24.320 |
|
정말 놀라운 일이죠 |
|
|
|
04:24.320 --> 04:28.610 |
|
저도 아주 복잡한 걸 작업하면서 그런 경험을 했어요 제가 |
|
|
|
04:28.610 --> 04:34.040 |
|
심오한 주제 분야의 전문성을 갖고 있다고 믿는 거죠 꽤 복잡한 오류가 있었어요 |
|
|
|
04:34.040 --> 04:41.720 |
|
클로드에 상세 정보와 스택 트레이스를 넣으면 무엇이 잘못됐는지에 대한 아주 정확한 설명만 갖고 오는 |
|
|
|
04:41.720 --> 04:47.750 |
|
게 아니라 오른쪽에 아티팩트로 보이는 그걸 고칠 코드도 갖고 오죠 |
|
|
|
04:47.750 --> 04:50.330 |
|
정말 놀라워요 |
|
|
|
04:50.330 --> 04:51.830 |
|
정말 놀라워요 |
|
|
|
04:52.010 --> 04:56.210 |
|
사실 이런 건 종종∙∙∙ 붙여넣기를 하려고 하면 스택 오버플로에서 |
|
|
|
04:56.240 --> 04:57.470 |
|
찾아도 답이 없어요 |
|
|
|
04:57.470 --> 05:02.840 |
|
역류하는 스택 오버플로의 답을 넘어설 수 있어요 |
|
|
|
05:02.840 --> 05:05.990 |
|
무슨 일이 일어나는지 제대로 통찰하는 것 같아요 |
|
|
|
05:06.020 --> 05:13.280 |
|
그래서 스택 오버플로에서 트래픽이 크게 하락한 게 놀랍지 않은 것 |
|
|
|
05:13.280 --> 05:14.120 |
|
같아요 |
|
|
|
05:14.150 --> 05:22.370 |
|
2022년 Q4 이후부터 큰 변화가 일어났습니다 챗GPT가 출시된 시기죠 |
|
|
|
05:22.610 --> 05:31.800 |
|
그래서 확실히 패러다임을 바꿨어요 우리 문제를 조사하는 기술에 대한 |
|
|
|
05:31.800 --> 05:33.930 |
|
패러다임요 |
|
|
|
05:33.960 --> 05:35.100 |
|
아주 효과적이죠 |
|
|
|
05:35.100 --> 05:41.640 |
|
여러분도 저희가 하는 것 중에 막히는 게 있다면 클로드나 오픈라이 GPT에 도전해 |
|
|
|
05:41.670 --> 05:42.570 |
|
보세요 |
|
|
|
05:43.560 --> 05:45.510 |
|
그럼 어디가 약점일까요? |
|
|
|
05:45.510 --> 05:47.010 |
|
그들이 힘들어하는 건 무엇일까요? |
|
|
|
05:47.010 --> 05:49.230 |
|
인류에게 아직 기회가 있을까요? |
|
|
|
05:49.260 --> 05:56.730 |
|
우선, 상세한 지식이 필요한 특수한 대상에는 그리 강한 |
|
|
|
05:56.730 --> 05:59.190 |
|
힘이 없어요 |
|
|
|
05:59.280 --> 06:02.250 |
|
대부분의 llm은 아직 박사 단계가 아니에요 |
|
|
|
06:02.280 --> 06:09.090 |
|
거의 모든 단어를 써야 했어요 왜냐하면 몇 주 전만 해도 10월에 클로드 최신 버전이 |
|
|
|
06:09.090 --> 06:16.620 |
|
나왔거든요 최신 클로드 3요 Put 5개의 소네트 수학, 물리, |
|
|
|
06:16.710 --> 06:23.070 |
|
화학에서 박사 수준을 넘어섰어요 |
|
|
|
06:23.190 --> 06:29.220 |
|
이 모델들이 순식간에 박사 수준을 달성하는 걸 볼 수 있었죠 |
|
|
|
06:29.220 --> 06:30.360 |
|
아직까진 클로드뿐이에요 |
|
|
|
06:30.360 --> 06:36.540 |
|
다른 사람들도 마찬가지겠지만 그들은 특정 과학 분야에 있고 사업 분야 |
|
|
|
06:36.540 --> 06:42.960 |
|
같은 특정 영역에 있어서 그 분야의 전문가가 가진 전문 지식이 없어요 |
|
|
|
06:43.530 --> 06:46.260 |
|
둘째, 최근 사건들요 |
|
|
|
06:46.260 --> 06:52.170 |
|
모델들은 GPT를 위한 지식 제한 시간까지 훈련받아요 |
|
|
|
06:52.200 --> 06:53.370 |
|
작년 10월요 |
|
|
|
06:53.370 --> 06:58.470 |
|
그 이후에 나온 질문에 대답할 수 없게 되죠 |
|
|
|
06:58.500 --> 07:01.740 |
|
그리고 이상한 사각지대도 있어요 |
|
|
|
07:01.740 --> 07:04.260 |
|
Get it, Get it, Get it, Get it! 어떤 질문들은 그냥 틀릴 수도 있어요 |
|
|
|
07:04.260 --> 07:08.580 |
|
그리고 틀렸을 때 걱정되는 점은 get it 부문은 자신의 반응에 |
|
|
|
07:08.580 --> 07:10.440 |
|
확신이 있다는 거죠 |
|
|
|
07:10.440 --> 07:14.550 |
|
불확실하다는 사실을 자발적으로 말하지 않죠 |
|
|
|
07:14.550 --> 07:19.320 |
|
정답을 맞히는 것과 같은 수준의 확신에 찬 답변을 할 뿐이죠. Get up! Get |
|
|
|
07:19.320 --> 07:20.160 |
|
up! |
|
|
|
07:20.280 --> 07:28.530 |
|
그건 당연히 우려를 낳죠 환각을 보거나 새로운 정보를 떠올릴 때요 본인은 모르고 |
|
|
|
07:28.530 --> 07:32.190 |
|
자신 있게 그렇게 하는 거죠 |
|
|
|
07:32.190 --> 07:38.670 |
|
몇 가지 예제를 보고 그런 맹점 뒤에 있는 이유를 말씀드리죠
|
|
|