From the uDemy course on LLM engineering.
https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models
You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
166 lines
6.2 KiB
166 lines
6.2 KiB
WEBVTT |
|
|
|
00:00.590 --> 00:02.720 |
|
そしてみんな、 おかえりなさい。 |
|
|
|
00:02.720 --> 00:06.200 |
|
第2週3日目へようこそ。 |
|
|
|
00:06.230 --> 00:14.030 |
|
ラジオを楽しむこと、 ラジオとユーザー・インターフェースのすべてを称えることの継続だ。 |
|
|
|
00:14.330 --> 00:22.130 |
|
オープンAI、 anthropic、 Geminiを使うだけでなく、 ソリューションのUIを構築することもできます。 |
|
|
|
00:22.130 --> 00:24.500 |
|
そして、 それについてかなり良い気分になっているはずだ。 |
|
|
|
00:24.530 --> 00:27.230 |
|
ええと、 今日が終われば、 もっとできるようになるよ。 |
|
|
|
00:27.260 --> 00:32.120 |
|
非常に一般的なUIの一種であるチャットUIを構築できるようになる。 |
|
|
|
00:32.120 --> 00:38.270 |
|
会話の履歴をプロンプトで提供できるようになり、 まさに最初のカスタマー・サポート・アシスタント、 |
|
|
|
00:38.270 --> 00:42.980 |
|
AIアシスタント(チャットボットとも呼ばれる)を構築することになる。 |
|
|
|
00:43.010 --> 00:46.280 |
|
非常に一般的な使用例だ。 |
|
|
|
00:46.280 --> 00:48.590 |
|
今日でマスターできるだろう。 |
|
|
|
00:49.340 --> 00:51.950 |
|
だから、 これもよくあることだ。 |
|
|
|
00:51.950 --> 00:53.150 |
|
ユースケースです。 |
|
|
|
00:53.150 --> 00:55.220 |
|
みんなよく知っていると思う。 |
|
|
|
00:55.250 --> 00:56.810 |
|
チャットボットに基づくLlms。 |
|
|
|
00:56.810 --> 00:59.210 |
|
会話に超効果的。 |
|
|
|
00:59.210 --> 01:05.780 |
|
ほんの数年前まで、 ウェブサイトでこうしたチャットボット・スタイルのインターフェイスを体験すると、 |
|
|
|
01:05.780 --> 01:15.820 |
|
さまざまなことに1つ、 2つ、 3つ、 4つと反応したり、 予約などのキーワードを使ったりする世界だったことを思い出すのは難しい。 |
|
|
|
01:15.850 --> 01:17.860 |
|
我々はここまで来た。 |
|
|
|
01:17.860 --> 01:24.280 |
|
ウェブサイト上のカスタマーサービス・チャットボットと、 十分な情報を得た上で会話をすることができるようになった。 |
|
|
|
01:24.280 --> 01:36.460 |
|
そして、 正直なところ、 人間との会話よりもチャットボットとの会話から得た価値の方が大きかったこともある。 |
|
|
|
01:36.640 --> 01:42.040 |
|
でも、 Aという文字がその文中に何回出てくるか、 というようなことは明らかにできない。 |
|
|
|
01:42.400 --> 01:46.510 |
|
ええと、 とにかく、 ええと、 チャットボットの使用例です。 |
|
|
|
01:46.510 --> 01:49.030 |
|
とても身近で、 とても重要なことだ。 |
|
|
|
01:49.030 --> 01:51.280 |
|
そしてllmsが得意とすること。 |
|
|
|
01:51.430 --> 01:57.190 |
|
チャットボットに与えることができるフレンドリーなペルソナ、 |
|
|
|
01:57.220 --> 02:11.440 |
|
あるいはどんなペルソナでも、 メッセージ間の文脈を維持する能力を持つことができます。 |
|
|
|
02:11.440 --> 02:15.790 |
|
そして私たちは今、 それが何らかの、 何らかの、 何らかの策略であることを知っている。 |
|
|
|
02:15.790 --> 02:19.870 |
|
本当にしつこく会話しているかのような錯覚に陥る。 |
|
|
|
02:19.900 --> 02:22.500 |
|
それぞれのステップで何が起きているのか。 |
|
|
|
02:22.500 --> 02:29.280 |
|
次の返答を得るために、 会話履歴はすべてLLMに提供される。 |
|
|
|
02:29.520 --> 02:37.830 |
|
それから、 アシスタントは専門的な知識を持っていて、 その知識を使って質問に答えることもできる。 |
|
|
|
02:38.730 --> 02:45.480 |
|
だから、 アシスタントと接する上でとても重要なのは、 プロンプトを正しく使うことなんだ。 |
|
|
|
02:45.480 --> 02:49.590 |
|
私たちは、 会話のトーンを設定するために使用できるシステム・プロンプトを熟知している。 |
|
|
|
02:49.590 --> 02:51.180 |
|
基本的なルールを設けることができる。 |
|
|
|
02:51.180 --> 02:56.400 |
|
答えがわからなければそう言えばいい、 というよくあるプロンプトのテクニックがある。 |
|
|
|
02:56.400 --> 03:01.140 |
|
幻覚を見ないよう、 llmsに真実を話すよう促すためだ。 |
|
|
|
03:01.470 --> 03:09.690 |
|
コンテクストとは、 LLMが議論していることについてより多くのコンテクストを与えるために、 |
|
|
|
03:09.690 --> 03:13.140 |
|
会話に追加情報を加えることです。 |
|
|
|
03:13.140 --> 03:21.660 |
|
そしてマルチ・ショット・プロンプトとは、 プロンプトに情報を追加して複数の交流例を示すことで、 |
|
|
|
03:21.660 --> 03:35.390 |
|
LLMの性格に磨きをかけるとともに、 後で役に立つ情報を与えるためのものだ。 |
|
|
|
03:35.420 --> 03:43.340 |
|
これは複数の例から学習しているため、 トレーニングのように感じられるのが面白いところだが、 もちろんこれはデータサイエンスの意味でのトレーニングではない。 |
|
|
|
03:43.340 --> 03:45.410 |
|
モデルはすでに訓練されている。 |
|
|
|
03:45.440 --> 03:47.750 |
|
ニューラルネットワークのトレーニングが行われた。 |
|
|
|
03:47.780 --> 03:51.260 |
|
これはすべて、 実行時の推論時間と呼ばれるものだ。 |
|
|
|
03:51.260 --> 03:54.770 |
|
すべては過去に基づいて未来のトークンを生成しているだけなのだ。 |
|
|
|
03:54.770 --> 04:01.940 |
|
しかし、 重要なのは、 もし過去のトークンのセットに質問と答えがたくさん含まれていれば、 |
|
|
|
04:01.940 --> 04:10.610 |
|
未来を予測するときに、 過去に見たものと一致する未来のトークンを選ぶ可能性が高くなるということだ。 |
|
|
|
04:10.610 --> 04:13.670 |
|
だからこそ、 これはとても効果的なのだ。 |
|
|
|
04:14.540 --> 04:16.700 |
|
だから、 これからチャットボットを作るんだ。 |
|
|
|
04:16.730 --> 04:17.390 |
|
私たちの最初のチャットボット。 |
|
|
|
04:17.390 --> 04:18.410 |
|
そして、 このようになるだろう。 |
|
|
|
04:18.440 --> 04:29.690 |
|
このレッスンでは、 インスタントメッセージのようなインターフェイスで、 |
|
|
|
04:29.720 --> 04:39.020 |
|
私たちからの質問とチャットボットからの応答が行われます。 |
|
|
|
04:39.020 --> 04:42.950 |
|
それでは早速、 JupyterLabに行ってみよう。
|
|
|