You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 

136 lines
5.6 KiB

WEBVTT
00:00.740 --> 00:05.000
そして、 LMエンジニアリングにもう一度大歓迎を。
00:05.000 --> 00:10.220
3週目、 2日目に入り、 オープンソースのモデルに入っている。
00:10.370 --> 00:14.960
つまり、 すでにフロンティア・モデルのバック・トゥ・フロントが可能なのだ。
00:14.960 --> 00:16.940
マルチモーダルなAIアシスタントを構築できる。
00:16.940 --> 00:22.940
そして今、 あなたはハグする顔のハブを見たり、 モデルやデータセットやスペースを見たりすることに快適さを感じている。
00:22.940 --> 00:26.690
また、 Google Colabを使ってコードを実行することもできる。
00:27.020 --> 00:33.080
そこで今日は、 Hugging Face Transformersライブラリを見て、 2つの異なるタイプのAPIがあること、
00:33.080 --> 00:39.950
1つのレベルでトランスフォーマーを扱うことができる2つの異なるレベルがあること、 より高いレベルのAPIはパイプラインと呼ばれ、
00:39.980 --> 00:50.810
パイプラインを使ったテキスト、 画像、 サウンドの生成など、 今日主に扱うのはこれだということを説明する。
00:51.080 --> 00:56.570
では、 この2つの異なるAPIレベルについて少し話をしよう。
00:56.570 --> 01:02.770
つまり、 ハグする顔のコードと相互作用する2つのモードがあるのだ。
01:02.770 --> 01:10.060
そのひとつは、 推論と呼ばれるような、 標準的で日常的な典型的なタスクを実行したい場合、 つまり、
01:10.060 --> 01:14.860
入力が与えられて実行時にモデルを実行して出力を得たい場合だ。
01:14.860 --> 01:21.550
そしてハギング・フェイスは、 これを素晴らしく使いやすい高レベルのインターフェイスにパッケージ化し、
01:21.550 --> 01:30.130
テキストを生成し、 多くの日常的な機能を実行するための迅速な方法を提供する。
01:30.580 --> 01:37.360
しかし、 もしあなたがコードにもっと深く入り込みたいのであれば、 どのモデルをどのようにトークン化し、 どのパラメータを使ってモデルを実行しているのか、
01:37.360 --> 01:44.380
あるいは実際にトレーニングまで行って、 専門的なタスクを実行するために独自のモデルをファインチューニングし、
01:44.380 --> 01:54.010
特別な知識やニュアンスを身につけたいのであれば、 そのようなことをもっと詳しく調べたいでしょう。
01:54.010 --> 02:02.800
その時点で、 より深いAPI、 より低レベルのAPI、 トーケナイザーやハギング・フェイスのモデルを扱うことに目を向ける必要がある。
02:02.830 --> 02:05.260
今日はパイプラインについて見ていこう。
02:05.260 --> 02:10.420
そしてそのあとは、 トーケナイザーとモデルの話に移る。
02:11.080 --> 02:13.060
では、 このパイプラインを使って何ができるのか?
02:13.060 --> 02:22.960
そのため、 基本的には2行のコードで、 ハギング・フェイス・ハブのモデルを即座に利用することができる。
02:22.960 --> 02:24.340
簡単なことだ。
02:24.340 --> 02:28.330
そして、 あなたが毎日の推論作業に使えるように、 たくさんの例と、
02:28.330 --> 02:32.800
あなたが持ち帰ることができるものをたくさん紹介するつもりだ。
02:32.800 --> 02:38.350
典型的な例としては、 センチメント分析と呼ばれるものがある。
02:38.380 --> 02:43.570
ある文章が与えられたとき、 この文章から伝わってくる感情は何か?
02:44.380 --> 02:52.450
分類は、 もちろん、 物事をバケツに分類するという、 非常に伝統的な機械学習タスクのひとつだ。
02:52.660 --> 03:00.160
名前付きエンティティ認識とは、 ある文章に含まれる単語を、 人なのか、 場所なのか、
03:00.160 --> 03:04.630
物なのか、 といったようにタグ付けすることだ。
03:04.970 --> 03:13.610
質問応答とは、 何らかの文脈があり、 提供した文脈について質問できるようにしたい場合である。
03:13.640 --> 03:21.710
要約はもちろん、 テキストブロックがあり、 それを要約翻訳にしたい場合である。
03:21.740 --> 03:26.870
もうひとつの古典的なAIタスクは、 ある言語と別の言語の間の翻訳である。
03:26.900 --> 03:32.060
では、 これらのことがそれぞれ2行のコードでできると言ったらどうだろう?
03:32.330 --> 03:37.370
願わくば驚かれることを願っています。
03:37.490 --> 03:43.460
その他にも、 少し高度なこともできる。
03:43.580 --> 03:45.740
テキスト生成は実はまったく進歩していない。
03:45.740 --> 03:47.120
たった2行のコードだ。
03:47.120 --> 03:52.760
それでも超シンプルで、 これまた驚嘆することだろう。
03:53.210 --> 03:57.470
しかし、 画像の生成もオーディオと同様、 非常に簡単だ。
03:57.470 --> 04:02.810
2行より少し多くなりますが、 それでもとてもシンプルなので、 早くお見せしたいです。
04:02.840 --> 04:04.760
前置きはこれくらいにしておこう。
04:04.760 --> 04:05.720
本題に入ろう。
04:05.720 --> 04:07.340
グーグルコラボに行こう。