You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 

196 lines
4.9 KiB

WEBVTT
00:00.050 --> 00:02.870
이제 다른 모델들을 좀 더 빠르게 비춰볼게요
00:02.900 --> 00:05.510
구글의 쌍둥이자리부터 시작하죠
00:05.750 --> 00:11.030
프로 플랜이 있어요 제미니 어드밴스드와 플래시 중 고를 수 있죠
00:11.330 --> 00:12.560
어떻게 할까요?
00:12.590 --> 00:19.280
질문을 해 보죠 우선, 기발한 질문이에요 하와이에서
00:19.280 --> 00:28.850
저 멀리까지 뛰려면 무지개가 몇 개나 필요할까요?
00:28.850 --> 00:30.020
17살요
00:30.020 --> 00:38.870
이 문제에 대한 답을 어떻게 처리하는지 보죠
00:39.500 --> 00:51.440
여기 답이 나온 걸 볼 수 있어요 괜찮긴 한데 너무
00:53.090 --> 00:55.520
뻔하죠
00:55.520 --> 01:01.700
GPT에서 받은 반응은 확실히 명확하게 이해되지 않았죠
01:01.700 --> 01:06.560
그 질문을 유머러스하게 던지고 장난스럽게 다룰 수
01:06.560 --> 01:07.700
있었어요
01:07.850 --> 01:16.300
제가 보기엔 뉘앙스가 부족하고 이런 말의 의미를 이해할 능력이 부족하지만 제미니
01:16.330 --> 01:19.750
계획의 완벽한 답이에요
01:19.780 --> 01:23.350
물어보죠 새 채팅이 몇 번이죠?
01:23.380 --> 01:32.230
A가 이 문장에 몇 번이나 나오죠?
01:33.100 --> 01:35.500
어떻게 대처하는지 보죠
01:36.370 --> 01:37.690
생각 중이에요
01:40.750 --> 01:43.300
그게 잘못인가요?
01:43.450 --> 01:49.660
제 생각에는 어떤 학파에서는 A는 인용 쉼표로 쳐선 안 된다고 말할
01:49.660 --> 01:50.710
것 같아요
01:50.740 --> 01:55.660
좀 억지스럽긴 하지만 그렇게 따지면 A가 세 개라고 하는
01:55.690 --> 01:58.720
것도 나쁘지 않다고 할 수 있죠
01:58.720 --> 02:03.490
하지만 비트는 문장 때문에 A가 나왔다고 믿죠 좀 실수처럼
02:03.490 --> 02:04.870
보이지만요
02:04.930 --> 02:10.960
그래서, 아뇨, 슬프게도 이런 점에선 프리뷰 하나가 승자예요
02:11.080 --> 02:15.100
실험을 더 할 수 있어요
02:15.100 --> 02:20.050
하지만 코어에서 코어로 넘어가는 게 좋겠어요
02:20.140 --> 02:23.760
캐나다 인공지능 회사 코헤어의 커맨드 플러스인데요
02:23.790 --> 02:31.590
여러 분야에 대한 지식에 집중하는 거예요
02:31.680 --> 02:33.120
그 질문을 해보죠
02:33.120 --> 02:39.150
다른 지역과 비교했을 때 어떤 질문에 가장 잘 대답하고 다른 지역과 비교할 수 있나요?
02:39.150 --> 02:41.520
Get in get it. 뭘 받게 되죠?
02:41.550 --> 02:45.900
우선, 인공지능 언어 모델로서 보조를 위해 어쩌고저쩌고 설계되었어요
02:45.900 --> 02:51.150
강점도 있고 도전도 있고 llm도 보너스로 주죠
02:51.240 --> 03:00.360
모델의 여러 유형을 제공하지만 모델의 이름을 나열하진 않아요
03:00.360 --> 03:07.470
하지만 그래도 정답입니다 다중 모듈 기능이 없다는 걸 확실히 보여 주죠
03:07.560 --> 03:09.090
뭐, 그런 거요
03:09.090 --> 03:16.740
꽤 훌륭하고 철저한 답변이에요 이런 종류의 것에 대한 더 많은 정보를 위한 리소스가 있다는
03:16.740 --> 03:17.820
걸 보여주죠
03:18.090 --> 03:19.620
직접 물어보죠
03:19.650 --> 03:21.090
어떤 느낌이에요?
03:23.100 --> 03:24.510
질투하는 거요
03:26.010 --> 03:27.720
비교해 보세요
03:28.110 --> 03:33.000
정말 꼼꼼한 걸 볼 수 있어요
03:33.030 --> 03:33.840
정말이에요
03:33.870 --> 03:39.560
풍부한 지식을 끌어다 쓸 수 있다는 느낌을 받을 수 있죠 get it
03:39.560 --> 03:44.690
클로드가 준 답보다 표현력이 덜하지만 구조와
03:44.690 --> 03:50.570
세부 사항이 더 있는 것 같아요 대충 훑어본 결과죠
03:50.570 --> 03:53.150
하지만 좀 더 시간을 갖고 생각해 보세요
03:53.390 --> 03:56.570
하지만 확실히 이런 일을 잘하네요
03:56.570 --> 03:59.120
이왕이면 재미있게 하는 게 좋잖아요
03:59.120 --> 04:00.680
직접 물어보고 질문도 들어보죠
04:00.680 --> 04:08.600
A가 이 문장에 몇 번이나 나오죠?
04:11.060 --> 04:14.210
A는 이 문장에 11번 등장해요
04:14.210 --> 04:14.930
됐어요
04:14.930 --> 04:16.400
이제 알게 됐네요
04:17.420 --> 04:25.730
다시 말씀드리지만 이 플랫폼이 풍부한 배경 지식을 끌어다 쓸 수 있다는 사실은 그런 종류의 작업에는
04:25.730 --> 04:27.950
도움이 안 되죠
04:27.950 --> 04:33.950
특히 림프관리자가 어려워하는 대상을 선택합니다 림프관리자는 훈련된
04:33.950 --> 04:37.880
방식과 추론 모드로 달리는 방식 때문이죠
04:37.910 --> 04:38.630
좋아요
04:38.630 --> 04:41.810
제미니와 코의 모습을 잠깐 봤는데요
04:41.810 --> 04:46.610
다음 시간엔 마지막 두 개의 메타 인공지능과 당혹스러움을 보죠