From the uDemy course on LLM engineering.
https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models
You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
160 lines
5.8 KiB
160 lines
5.8 KiB
WEBVTT |
|
|
|
00:00.110 --> 00:08.570 |
|
そして、 メタAIと当惑を見ることで、 チャット・インターフェースを通じたフロンティア・モデルの世界への探検を締めくくる。 |
|
|
|
00:08.600 --> 00:15.770 |
|
メタAIはもちろん、 裏で動いているllamaのフロントエンド版だ。 |
|
|
|
00:15.770 --> 00:25.190 |
|
他のモデルと比較してどうなのかと同じ質問をすれば、 長所と短所を持つものが返ってくるだろう。 |
|
|
|
00:25.190 --> 00:27.440 |
|
大した仕事はしていない。 |
|
|
|
00:27.440 --> 00:33.530 |
|
かなり古風な褒め言葉だが、 まあいい。 |
|
|
|
00:33.530 --> 00:38.000 |
|
一般的に言って、 いろいろな質問をしてみると、 まあまあの答えが返ってくるが、 |
|
|
|
00:38.000 --> 00:42.200 |
|
他の選手と同じようなパワーは得られないと思う。 |
|
|
|
00:42.590 --> 00:44.060 |
|
同じ質問をしよう。 |
|
|
|
00:44.060 --> 00:54.650 |
|
こんなことをすると君たちに辟易されるだろうが、 この文章の中にAという文字が何回出てくるだろうか? |
|
|
|
00:54.920 --> 00:58.190 |
|
メタAIから何が得られるか見てみよう。 |
|
|
|
00:58.340 --> 01:04.160 |
|
5回も出てくるので、 メタもその質問には対応できない。 |
|
|
|
01:04.190 --> 01:08.210 |
|
さて、 メタが扱えることのひとつに画像生成がある。 |
|
|
|
01:08.210 --> 01:23.830 |
|
そして、 ハワイから17号線に虹が架かるイメージを作ってくださいと言うことができる。 |
|
|
|
01:24.100 --> 01:31.450 |
|
そして、 これがラマ僧の挑戦であることがわかるだろう。 |
|
|
|
01:31.450 --> 01:35.980 |
|
そして、 この4つの可能性をとてもうまく実現している。 |
|
|
|
01:36.070 --> 01:38.350 |
|
そして、 このような効果が得られる。 |
|
|
|
01:38.350 --> 01:44.260 |
|
そして、 ハワイが登場したようだが、 そのうちのいくつかは非常に立派なもので、 特にオープンソースモデルとしては、 |
|
|
|
01:44.260 --> 01:49.840 |
|
ラマが舞台裏に座っているようなものだ。 |
|
|
|
01:49.960 --> 01:55.510 |
|
さて、 "perplexity "に話を移そう。 "perplexity "はもちろん検索エンジンであり、 LLMではない。 |
|
|
|
01:55.510 --> 01:56.080 |
|
だから、 それはない。 |
|
|
|
01:56.110 --> 02:02.320 |
|
このグループの中では変わり者だが、 実はOpenAIも検索スペースに参入している。 |
|
|
|
02:02.440 --> 02:08.380 |
|
つまり、 調査して答えを出せるような、 事実に基づいた質問を探しているんだ。 |
|
|
|
02:08.380 --> 02:13.240 |
|
そして、 私はこれを11月6日、 アメリカでの選挙の翌日に収録している。 |
|
|
|
02:13.240 --> 02:23.570 |
|
だから、 アメリカの次期大統領は誰なのか、 などと言えば、 少しは考えてくれるだろう。 |
|
|
|
02:23.570 --> 02:29.960 |
|
そして、 結果を要約し、 重要なポイントや反応などを伝えることができるようになっていても、 |
|
|
|
02:29.960 --> 02:33.110 |
|
私はまったく驚かない。 |
|
|
|
02:33.170 --> 02:40.280 |
|
そうすることで、 時事問題に対してニュアンスのある、 よく練られた反応を示すことができるんだ。 |
|
|
|
02:40.310 --> 02:46.160 |
|
実際、 GPTのOpenAIにそのような質問をすると、 知識のカットオフが昨年であるにもかかわらず、 |
|
|
|
02:46.160 --> 02:50.990 |
|
時事問題に基づいて適切な答えを返してくれる。 |
|
|
|
02:51.110 --> 02:53.210 |
|
しかし、 クロードに言わせれば、 そんなことはできないだろう。 |
|
|
|
02:53.210 --> 02:55.610 |
|
そして、 直接的であれと言うだろう。 |
|
|
|
02:55.610 --> 03:00.440 |
|
私の知識の切り口は......具体的な答えだ。 |
|
|
|
03:00.890 --> 03:04.550 |
|
ええと、 何人ですか? |
|
|
|
03:04.580 --> 03:15.350 |
|
この文章にAという文字は何回出てきますか? |
|
|
|
03:16.130 --> 03:17.960 |
|
これを見るのはこれが最後だ。 |
|
|
|
03:18.170 --> 03:20.510 |
|
ええと、 4回と書いてある。 |
|
|
|
03:20.510 --> 03:23.030 |
|
だから数えることができる。 |
|
|
|
03:23.060 --> 03:24.800 |
|
ああ、 だから印象的なんだ。 |
|
|
|
03:24.830 --> 03:28.310 |
|
偶然なのか、 他の人がこの件について記事を書いたから見つかったのかはわからないが、 |
|
|
|
03:28.310 --> 03:32.300 |
|
回数を数えることができる。 |
|
|
|
03:32.300 --> 03:39.080 |
|
そのため、 このプレビュー版でこの問題を解決できるのかどうかが大きな課題となっている。 |
|
|
|
03:39.110 --> 03:41.420 |
|
おめでとう、 当惑。 |
|
|
|
03:41.630 --> 03:52.910 |
|
そして、 ちょっと不思議な質問、 つまり、 他のモデルとの比較についての質問をしてみてください。 |
|
|
|
03:53.000 --> 03:55.340 |
|
ええと、 このあたりは当惑で示されている。 |
|
|
|
03:55.340 --> 03:57.260 |
|
私には能力がない。 |
|
|
|
03:57.260 --> 04:00.440 |
|
だから、 間違いなくそれをしっかりと押し返している。 |
|
|
|
04:00.680 --> 04:04.460 |
|
以上、 フロンティア・モデルについての解説を終えた。 |
|
|
|
04:04.460 --> 04:07.160 |
|
しかし、 今、 私はあなたにも同じことをするよう勧める。 |
|
|
|
04:07.160 --> 04:12.560 |
|
興味深い質問を考え、 特にモデル間の違い、 キャラクター、 得意なこと、 |
|
|
|
04:12.590 --> 04:18.590 |
|
不得意なことを表面化できるような質問を見つけるようにする。 |
|
|
|
04:18.620 --> 04:23.420 |
|
そして、 もし何かいいものを見つけたら、 それを僕にシェアするか、 メッセージに投稿してほしい。 |
|
|
|
04:23.450 --> 04:32.660 |
|
このような違いを表面化させ、 またその違いが強い部分を強調するのに役立つようなプロンプトを見つけるのは本当に素晴らしいことだ。 |
|
|
|
04:32.750 --> 04:36.050 |
|
それではまた次のビデオでお会いしましょう。
|
|
|