WEBVTT

00:00.410 --> 00:06.830
では、 熟達したLLMエンジニアになるための道のりの30%を歩んでいる今、 どのように感じているのだろうか?

00:06.860 --> 00:12.020
大きな達成と多くの進歩について、 自分自身を祝福するひとときを過ごしてください。 

00:12.110 --> 00:13.850
そして願わくば、 あなたにもその感覚を持っていてほしい。 

00:13.850 --> 00:22.160
数日前の自分よりずっと多くのことができるようになったという実感がある。

00:22.160 --> 00:26.120
私たちは、 あなたが身につけている技術や知識をどんどん積み上げていくつもりです。 

00:26.120 --> 00:28.790
だから、 どんどんできることが増えていく。 

00:28.820 --> 00:32.780
しかし、 繰り返しになるが、 すでにできることは、 フロンティアで自信を持ってコーディングできる。 

00:32.780 --> 00:36.410
ツールを使ってマルチモーダルAIアシスタントを構築できる。 

00:36.410 --> 00:40.670
そして今も昔も、 ハグする顔のパイプラインはお馴染みだ。 

00:40.670 --> 00:50.390
また、 パイプラインを使って、 さまざまな一般的な機械学習タスクの推論タスクを実行することができる。

00:50.840 --> 01:00.620
次回は、 より低レベルのTransformers APIに入り、 Tokenizersを扱い始めます。 もちろん、 トークンについてはすでに時間を費やしていますし、

01:00.650 --> 01:06.800
Gptsトークナイザーをウェブ・ユーザー・インターフェイスを通して見てきました。

01:06.830 --> 01:13.190
では、 実際にコードを使ってテキストをトークンに変換し、 また元に戻してみよう。 

01:13.190 --> 01:16.550
その一環として、 私たちは特別なトークンのようなものを理解しようとしている。 

01:16.550 --> 01:22.550
少し前にサイドバーで、 ええと、 とりとめのない話をしたのを覚えているんだけど、 全部まとまりそうなんだ。 

01:22.550 --> 01:23.450
それだけの価値がある

01:23.450 --> 01:26.060
私が蒔いた種が結実するんだ。 

01:26.060 --> 01:31.070
LLMに渡されるトークンがどのようなものかを見てみよう。 

01:31.070 --> 01:41.660
そして、 チャット・テンプレートと呼ばれるものを見るときにも、 これらすべてが非常に重要な基礎資料となるでしょう。