WEBVTT 00:00.740 --> 00:05.000 そして、 LMエンジニアリングにもう一度大歓迎を。 00:05.000 --> 00:10.220 3週目、 2日目に入り、 オープンソースのモデルに入っている。 00:10.370 --> 00:14.960 つまり、 すでにフロンティア・モデルのバック・トゥ・フロントが可能なのだ。 00:14.960 --> 00:16.940 マルチモーダルなAIアシスタントを構築できる。 00:16.940 --> 00:22.940 そして今、 あなたはハグする顔のハブを見たり、 モデルやデータセットやスペースを見たりすることに快適さを感じている。 00:22.940 --> 00:26.690 また、 Google Colabを使ってコードを実行することもできる。 00:27.020 --> 00:33.080 そこで今日は、 Hugging Face Transformersライブラリを見て、 2つの異なるタイプのAPIがあること、 00:33.080 --> 00:39.950 1つのレベルでトランスフォーマーを扱うことができる2つの異なるレベルがあること、 より高いレベルのAPIはパイプラインと呼ばれ、 00:39.980 --> 00:50.810 パイプラインを使ったテキスト、 画像、 サウンドの生成など、 今日主に扱うのはこれだということを説明する。 00:51.080 --> 00:56.570 では、 この2つの異なるAPIレベルについて少し話をしよう。 00:56.570 --> 01:02.770 つまり、 ハグする顔のコードと相互作用する2つのモードがあるのだ。 01:02.770 --> 01:10.060 そのひとつは、 推論と呼ばれるような、 標準的で日常的な典型的なタスクを実行したい場合、 つまり、 01:10.060 --> 01:14.860 入力が与えられて実行時にモデルを実行して出力を得たい場合だ。 01:14.860 --> 01:21.550 そしてハギング・フェイスは、 これを素晴らしく使いやすい高レベルのインターフェイスにパッケージ化し、 01:21.550 --> 01:30.130 テキストを生成し、 多くの日常的な機能を実行するための迅速な方法を提供する。 01:30.580 --> 01:37.360 しかし、 もしあなたがコードにもっと深く入り込みたいのであれば、 どのモデルをどのようにトークン化し、 どのパラメータを使ってモデルを実行しているのか、 01:37.360 --> 01:44.380 あるいは実際にトレーニングまで行って、 専門的なタスクを実行するために独自のモデルをファインチューニングし、 01:44.380 --> 01:54.010 特別な知識やニュアンスを身につけたいのであれば、 そのようなことをもっと詳しく調べたいでしょう。 01:54.010 --> 02:02.800 その時点で、 より深いAPI、 より低レベルのAPI、 トーケナイザーやハギング・フェイスのモデルを扱うことに目を向ける必要がある。 02:02.830 --> 02:05.260 今日はパイプラインについて見ていこう。 02:05.260 --> 02:10.420 そしてそのあとは、 トーケナイザーとモデルの話に移る。 02:11.080 --> 02:13.060 では、 このパイプラインを使って何ができるのか? 02:13.060 --> 02:22.960 そのため、 基本的には2行のコードで、 ハギング・フェイス・ハブのモデルを即座に利用することができる。 02:22.960 --> 02:24.340 簡単なことだ。 02:24.340 --> 02:28.330 そして、 あなたが毎日の推論作業に使えるように、 たくさんの例と、 02:28.330 --> 02:32.800 あなたが持ち帰ることができるものをたくさん紹介するつもりだ。 02:32.800 --> 02:38.350 典型的な例としては、 センチメント分析と呼ばれるものがある。 02:38.380 --> 02:43.570 ある文章が与えられたとき、 この文章から伝わってくる感情は何か? 02:44.380 --> 02:52.450 分類は、 もちろん、 物事をバケツに分類するという、 非常に伝統的な機械学習タスクのひとつだ。 02:52.660 --> 03:00.160 名前付きエンティティ認識とは、 ある文章に含まれる単語を、 人なのか、 場所なのか、 03:00.160 --> 03:04.630 物なのか、 といったようにタグ付けすることだ。 03:04.970 --> 03:13.610 質問応答とは、 何らかの文脈があり、 提供した文脈について質問できるようにしたい場合である。 03:13.640 --> 03:21.710 要約はもちろん、 テキストブロックがあり、 それを要約翻訳にしたい場合である。 03:21.740 --> 03:26.870 もうひとつの古典的なAIタスクは、 ある言語と別の言語の間の翻訳である。 03:26.900 --> 03:32.060 では、 これらのことがそれぞれ2行のコードでできると言ったらどうだろう? 03:32.330 --> 03:37.370 願わくば驚かれることを願っています。 03:37.490 --> 03:43.460 その他にも、 少し高度なこともできる。 03:43.580 --> 03:45.740 テキスト生成は実はまったく進歩していない。 03:45.740 --> 03:47.120 たった2行のコードだ。 03:47.120 --> 03:52.760 それでも超シンプルで、 これまた驚嘆することだろう。 03:53.210 --> 03:57.470 しかし、 画像の生成もオーディオと同様、 非常に簡単だ。 03:57.470 --> 04:02.810 2行より少し多くなりますが、 それでもとてもシンプルなので、 早くお見せしたいです。 04:02.840 --> 04:04.760 前置きはこれくらいにしておこう。 04:04.760 --> 04:05.720 本題に入ろう。 04:05.720 --> 04:07.340 グーグルコラボに行こう。