WEBVTT 00:00.560 --> 00:04.640 だから、 これをご覧になるころには、 ベクターで遊んだことがあるだろう。 00:04.640 --> 00:10.370 自分のチャンクを作り、 データストアに保存し、 2Dと3Dで見て、 00:10.370 --> 00:14.300 どちらが好きか決めた? 00:14.780 --> 00:17.090 さて、 クロマの紹介だ。 00:17.120 --> 00:18.260 とても使いやすい。 00:18.260 --> 00:20.720 他のデータストアを使うこともできる。 00:20.750 --> 00:25.010 バイスは、 同じようなコードを使ってとても簡単に使えるものだ。 00:25.040 --> 00:34.730 これはフェイスブックのAI類似検索であり、 インメモリー・ベクター・データストアで、 同じ難易度でも簡単ではない。 00:34.760 --> 00:38.270 すでに書いたものの1、 2行を変えるだけだ。 00:38.270 --> 00:40.070 だから、 これも君のための練習になるかもしれない。 00:40.100 --> 00:49.610 OpenAIのエンベッディングを使用している場合は、 もちろん一貫した結果を得ることができる。 00:50.420 --> 01:03.050 ええと、 つまり、 今経験したことは、 文字通りたった2行のコードで多くのことを成し遂げることができたという点で、 ロングチェーンの最たるものだということを指摘しておく価値があるだろう。 01:03.050 --> 01:14.960 埋め込みはOpenAIの埋め込みに等しいと言ったとき、 すぐに埋め込みベクトルを計算するためのOpenAIのAPIにアクセスできるようになった。 01:15.260 --> 01:20.360 それから、 クロマ・データベースを作成する1行があった。 01:20.360 --> 01:22.490 クロマ・ドットと言ったのは書類からだ。 01:22.490 --> 01:28.180 そして、 私たちが3つのもの、 書類、 つまり私たちの場合は書類の塊でパスをしたことを覚えているだろう。 01:28.630 --> 01:35.320 EmbeddingsはOpenAIのエンベッディングで、 データベース名は使用したディレクトリです。 01:35.320 --> 01:37.480 それに、 どんな名前でも入れることができた。 01:37.750 --> 01:41.860 そして、 私はベクターDBを選んだが、 好きな名前を入れることができる。 01:41.980 --> 01:42.970 その 01:43.330 --> 01:52.090 各チャンクのベクトルは、 我々が読み込んだテキストから作成したものである。 01:52.120 --> 01:54.520 そこに文書を入れることも同じようにできた。 01:54.520 --> 01:58.870 その代わりに、 チャンクではなくドキュメント全体のベクターを作成することもできた。 01:58.870 --> 01:59.800 それを試してみるといい。 01:59.830 --> 02:02.650 単語のかたまりを文書に置き換えてみてください。 02:02.680 --> 02:11.440 もちろん、 その数は少なくなるだろうし、 私が推測しているように、 同じように分けられているかどうかを見ることができる。 02:13.000 --> 02:19.330 これでようやく、 これをまとめてラグ・パイプラインを構築する準備が整ったわけだ。 02:19.360 --> 02:20.500 ラグ・ソリューション 02:20.500 --> 02:24.340 そしてこの時点で、 すべてのコンセプトがあなたの頭の中で明確になっていることを望んでいる。 02:24.370 --> 02:29.530 次回は、 会話チェーンやメモリなど、 ラング・チェインが非常にうまく処理するものを含め、 02:29.530 --> 02:38.740 数行のコードで完全なソリューションを組み立てることができるラング・チェインのパワーを再び見てみたいと思います。 02:38.740 --> 02:44.410 また、 スペースの専門的な知識を披露する質疑応答もできるだろう。 02:44.410 --> 02:47.470 だから、 僕らにとっては大きな節目なんだ。 02:47.470 --> 02:50.830 ボロが出て、 次のセッションで実現する。