WEBVTT 00:00.410 --> 00:06.830 では、 熟達したLLMエンジニアになるための道のりの30%を歩んでいる今、 どのように感じているのだろうか? 00:06.860 --> 00:12.020 大きな達成と多くの進歩について、 自分自身を祝福するひとときを過ごしてください。 00:12.110 --> 00:13.850 そして願わくば、 あなたにもその感覚を持っていてほしい。 00:13.850 --> 00:22.160 数日前の自分よりずっと多くのことができるようになったという実感がある。 00:22.160 --> 00:26.120 私たちは、 あなたが身につけている技術や知識をどんどん積み上げていくつもりです。 00:26.120 --> 00:28.790 だから、 どんどんできることが増えていく。 00:28.820 --> 00:32.780 しかし、 繰り返しになるが、 すでにできることは、 フロンティアで自信を持ってコーディングできる。 00:32.780 --> 00:36.410 ツールを使ってマルチモーダルAIアシスタントを構築できる。 00:36.410 --> 00:40.670 そして今も昔も、 ハグする顔のパイプラインはお馴染みだ。 00:40.670 --> 00:50.390 また、 パイプラインを使って、 さまざまな一般的な機械学習タスクの推論タスクを実行することができる。 00:50.840 --> 01:00.620 次回は、 より低レベルのTransformers APIに入り、 Tokenizersを扱い始めます。 もちろん、 トークンについてはすでに時間を費やしていますし、 01:00.650 --> 01:06.800 Gptsトークナイザーをウェブ・ユーザー・インターフェイスを通して見てきました。 01:06.830 --> 01:13.190 では、 実際にコードを使ってテキストをトークンに変換し、 また元に戻してみよう。 01:13.190 --> 01:16.550 その一環として、 私たちは特別なトークンのようなものを理解しようとしている。 01:16.550 --> 01:22.550 少し前にサイドバーで、 ええと、 とりとめのない話をしたのを覚えているんだけど、 全部まとまりそうなんだ。 01:22.550 --> 01:23.450 それだけの価値がある 01:23.450 --> 01:26.060 私が蒔いた種が結実するんだ。 01:26.060 --> 01:31.070 LLMに渡されるトークンがどのようなものかを見てみよう。 01:31.070 --> 01:41.660 そして、 チャット・テンプレートと呼ばれるものを見るときにも、 これらすべてが非常に重要な基礎資料となるでしょう。