WEBVTT 00:00.050 --> 00:02.870 이제 다른 모델들을 좀 더 빠르게 비춰볼게요 00:02.900 --> 00:05.510 구글의 쌍둥이자리부터 시작하죠 00:05.750 --> 00:11.030 프로 플랜이 있어요 제미니 어드밴스드와 플래시 중 고를 수 있죠 00:11.330 --> 00:12.560 어떻게 할까요? 00:12.590 --> 00:19.280 질문을 해 보죠 우선, 기발한 질문이에요 하와이에서 00:19.280 --> 00:28.850 저 멀리까지 뛰려면 무지개가 몇 개나 필요할까요? 00:28.850 --> 00:30.020 17살요 00:30.020 --> 00:38.870 이 문제에 대한 답을 어떻게 처리하는지 보죠 00:39.500 --> 00:51.440 여기 답이 나온 걸 볼 수 있어요 괜찮긴 한데 너무 00:53.090 --> 00:55.520 뻔하죠 00:55.520 --> 01:01.700 GPT에서 받은 반응은 확실히 명확하게 이해되지 않았죠 01:01.700 --> 01:06.560 그 질문을 유머러스하게 던지고 장난스럽게 다룰 수 01:06.560 --> 01:07.700 있었어요 01:07.850 --> 01:16.300 제가 보기엔 뉘앙스가 부족하고 이런 말의 의미를 이해할 능력이 부족하지만 제미니 01:16.330 --> 01:19.750 계획의 완벽한 답이에요 01:19.780 --> 01:23.350 물어보죠 새 채팅이 몇 번이죠? 01:23.380 --> 01:32.230 A가 이 문장에 몇 번이나 나오죠? 01:33.100 --> 01:35.500 어떻게 대처하는지 보죠 01:36.370 --> 01:37.690 생각 중이에요 01:40.750 --> 01:43.300 그게 잘못인가요? 01:43.450 --> 01:49.660 제 생각에는 어떤 학파에서는 A는 인용 쉼표로 쳐선 안 된다고 말할 01:49.660 --> 01:50.710 것 같아요 01:50.740 --> 01:55.660 좀 억지스럽긴 하지만 그렇게 따지면 A가 세 개라고 하는 01:55.690 --> 01:58.720 것도 나쁘지 않다고 할 수 있죠 01:58.720 --> 02:03.490 하지만 비트는 문장 때문에 A가 나왔다고 믿죠 좀 실수처럼 02:03.490 --> 02:04.870 보이지만요 02:04.930 --> 02:10.960 그래서, 아뇨, 슬프게도 이런 점에선 프리뷰 하나가 승자예요 02:11.080 --> 02:15.100 실험을 더 할 수 있어요 02:15.100 --> 02:20.050 하지만 코어에서 코어로 넘어가는 게 좋겠어요 02:20.140 --> 02:23.760 캐나다 인공지능 회사 코헤어의 커맨드 플러스인데요 02:23.790 --> 02:31.590 여러 분야에 대한 지식에 집중하는 거예요 02:31.680 --> 02:33.120 그 질문을 해보죠 02:33.120 --> 02:39.150 다른 지역과 비교했을 때 어떤 질문에 가장 잘 대답하고 다른 지역과 비교할 수 있나요? 02:39.150 --> 02:41.520 Get in get it. 뭘 받게 되죠? 02:41.550 --> 02:45.900 우선, 인공지능 언어 모델로서 보조를 위해 어쩌고저쩌고 설계되었어요 02:45.900 --> 02:51.150 강점도 있고 도전도 있고 llm도 보너스로 주죠 02:51.240 --> 03:00.360 모델의 여러 유형을 제공하지만 모델의 이름을 나열하진 않아요 03:00.360 --> 03:07.470 하지만 그래도 정답입니다 다중 모듈 기능이 없다는 걸 확실히 보여 주죠 03:07.560 --> 03:09.090 뭐, 그런 거요 03:09.090 --> 03:16.740 꽤 훌륭하고 철저한 답변이에요 이런 종류의 것에 대한 더 많은 정보를 위한 리소스가 있다는 03:16.740 --> 03:17.820 걸 보여주죠 03:18.090 --> 03:19.620 직접 물어보죠 03:19.650 --> 03:21.090 어떤 느낌이에요? 03:23.100 --> 03:24.510 질투하는 거요 03:26.010 --> 03:27.720 비교해 보세요 03:28.110 --> 03:33.000 정말 꼼꼼한 걸 볼 수 있어요 03:33.030 --> 03:33.840 정말이에요 03:33.870 --> 03:39.560 풍부한 지식을 끌어다 쓸 수 있다는 느낌을 받을 수 있죠 get it 03:39.560 --> 03:44.690 클로드가 준 답보다 표현력이 덜하지만 구조와 03:44.690 --> 03:50.570 세부 사항이 더 있는 것 같아요 대충 훑어본 결과죠 03:50.570 --> 03:53.150 하지만 좀 더 시간을 갖고 생각해 보세요 03:53.390 --> 03:56.570 하지만 확실히 이런 일을 잘하네요 03:56.570 --> 03:59.120 이왕이면 재미있게 하는 게 좋잖아요 03:59.120 --> 04:00.680 직접 물어보고 질문도 들어보죠 04:00.680 --> 04:08.600 A가 이 문장에 몇 번이나 나오죠? 04:11.060 --> 04:14.210 A는 이 문장에 11번 등장해요 04:14.210 --> 04:14.930 됐어요 04:14.930 --> 04:16.400 이제 알게 됐네요 04:17.420 --> 04:25.730 다시 말씀드리지만 이 플랫폼이 풍부한 배경 지식을 끌어다 쓸 수 있다는 사실은 그런 종류의 작업에는 04:25.730 --> 04:27.950 도움이 안 되죠 04:27.950 --> 04:33.950 특히 림프관리자가 어려워하는 대상을 선택합니다 림프관리자는 훈련된 04:33.950 --> 04:37.880 방식과 추론 모드로 달리는 방식 때문이죠 04:37.910 --> 04:38.630 좋아요 04:38.630 --> 04:41.810 제미니와 코의 모습을 잠깐 봤는데요 04:41.810 --> 04:46.610 다음 시간엔 마지막 두 개의 메타 인공지능과 당혹스러움을 보죠