From the uDemy course on LLM engineering.
https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models
You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
136 lines
5.6 KiB
136 lines
5.6 KiB
WEBVTT |
|
|
|
00:00.740 --> 00:05.000 |
|
そして、 LMエンジニアリングにもう一度大歓迎を。 |
|
|
|
00:05.000 --> 00:10.220 |
|
3週目、 2日目に入り、 オープンソースのモデルに入っている。 |
|
|
|
00:10.370 --> 00:14.960 |
|
つまり、 すでにフロンティア・モデルのバック・トゥ・フロントが可能なのだ。 |
|
|
|
00:14.960 --> 00:16.940 |
|
マルチモーダルなAIアシスタントを構築できる。 |
|
|
|
00:16.940 --> 00:22.940 |
|
そして今、 あなたはハグする顔のハブを見たり、 モデルやデータセットやスペースを見たりすることに快適さを感じている。 |
|
|
|
00:22.940 --> 00:26.690 |
|
また、 Google Colabを使ってコードを実行することもできる。 |
|
|
|
00:27.020 --> 00:33.080 |
|
そこで今日は、 Hugging Face Transformersライブラリを見て、 2つの異なるタイプのAPIがあること、 |
|
|
|
00:33.080 --> 00:39.950 |
|
1つのレベルでトランスフォーマーを扱うことができる2つの異なるレベルがあること、 より高いレベルのAPIはパイプラインと呼ばれ、 |
|
|
|
00:39.980 --> 00:50.810 |
|
パイプラインを使ったテキスト、 画像、 サウンドの生成など、 今日主に扱うのはこれだということを説明する。 |
|
|
|
00:51.080 --> 00:56.570 |
|
では、 この2つの異なるAPIレベルについて少し話をしよう。 |
|
|
|
00:56.570 --> 01:02.770 |
|
つまり、 ハグする顔のコードと相互作用する2つのモードがあるのだ。 |
|
|
|
01:02.770 --> 01:10.060 |
|
そのひとつは、 推論と呼ばれるような、 標準的で日常的な典型的なタスクを実行したい場合、 つまり、 |
|
|
|
01:10.060 --> 01:14.860 |
|
入力が与えられて実行時にモデルを実行して出力を得たい場合だ。 |
|
|
|
01:14.860 --> 01:21.550 |
|
そしてハギング・フェイスは、 これを素晴らしく使いやすい高レベルのインターフェイスにパッケージ化し、 |
|
|
|
01:21.550 --> 01:30.130 |
|
テキストを生成し、 多くの日常的な機能を実行するための迅速な方法を提供する。 |
|
|
|
01:30.580 --> 01:37.360 |
|
しかし、 もしあなたがコードにもっと深く入り込みたいのであれば、 どのモデルをどのようにトークン化し、 どのパラメータを使ってモデルを実行しているのか、 |
|
|
|
01:37.360 --> 01:44.380 |
|
あるいは実際にトレーニングまで行って、 専門的なタスクを実行するために独自のモデルをファインチューニングし、 |
|
|
|
01:44.380 --> 01:54.010 |
|
特別な知識やニュアンスを身につけたいのであれば、 そのようなことをもっと詳しく調べたいでしょう。 |
|
|
|
01:54.010 --> 02:02.800 |
|
その時点で、 より深いAPI、 より低レベルのAPI、 トーケナイザーやハギング・フェイスのモデルを扱うことに目を向ける必要がある。 |
|
|
|
02:02.830 --> 02:05.260 |
|
今日はパイプラインについて見ていこう。 |
|
|
|
02:05.260 --> 02:10.420 |
|
そしてそのあとは、 トーケナイザーとモデルの話に移る。 |
|
|
|
02:11.080 --> 02:13.060 |
|
では、 このパイプラインを使って何ができるのか? |
|
|
|
02:13.060 --> 02:22.960 |
|
そのため、 基本的には2行のコードで、 ハギング・フェイス・ハブのモデルを即座に利用することができる。 |
|
|
|
02:22.960 --> 02:24.340 |
|
簡単なことだ。 |
|
|
|
02:24.340 --> 02:28.330 |
|
そして、 あなたが毎日の推論作業に使えるように、 たくさんの例と、 |
|
|
|
02:28.330 --> 02:32.800 |
|
あなたが持ち帰ることができるものをたくさん紹介するつもりだ。 |
|
|
|
02:32.800 --> 02:38.350 |
|
典型的な例としては、 センチメント分析と呼ばれるものがある。 |
|
|
|
02:38.380 --> 02:43.570 |
|
ある文章が与えられたとき、 この文章から伝わってくる感情は何か? |
|
|
|
02:44.380 --> 02:52.450 |
|
分類は、 もちろん、 物事をバケツに分類するという、 非常に伝統的な機械学習タスクのひとつだ。 |
|
|
|
02:52.660 --> 03:00.160 |
|
名前付きエンティティ認識とは、 ある文章に含まれる単語を、 人なのか、 場所なのか、 |
|
|
|
03:00.160 --> 03:04.630 |
|
物なのか、 といったようにタグ付けすることだ。 |
|
|
|
03:04.970 --> 03:13.610 |
|
質問応答とは、 何らかの文脈があり、 提供した文脈について質問できるようにしたい場合である。 |
|
|
|
03:13.640 --> 03:21.710 |
|
要約はもちろん、 テキストブロックがあり、 それを要約翻訳にしたい場合である。 |
|
|
|
03:21.740 --> 03:26.870 |
|
もうひとつの古典的なAIタスクは、 ある言語と別の言語の間の翻訳である。 |
|
|
|
03:26.900 --> 03:32.060 |
|
では、 これらのことがそれぞれ2行のコードでできると言ったらどうだろう? |
|
|
|
03:32.330 --> 03:37.370 |
|
願わくば驚かれることを願っています。 |
|
|
|
03:37.490 --> 03:43.460 |
|
その他にも、 少し高度なこともできる。 |
|
|
|
03:43.580 --> 03:45.740 |
|
テキスト生成は実はまったく進歩していない。 |
|
|
|
03:45.740 --> 03:47.120 |
|
たった2行のコードだ。 |
|
|
|
03:47.120 --> 03:52.760 |
|
それでも超シンプルで、 これまた驚嘆することだろう。 |
|
|
|
03:53.210 --> 03:57.470 |
|
しかし、 画像の生成もオーディオと同様、 非常に簡単だ。 |
|
|
|
03:57.470 --> 04:02.810 |
|
2行より少し多くなりますが、 それでもとてもシンプルなので、 早くお見せしたいです。 |
|
|
|
04:02.840 --> 04:04.760 |
|
前置きはこれくらいにしておこう。 |
|
|
|
04:04.760 --> 04:05.720 |
|
本題に入ろう。 |
|
|
|
04:05.720 --> 04:07.340 |
|
グーグルコラボに行こう。
|
|
|