WEBVTT 00:00.050 --> 00:05.810 さて、 8週間にわたる旅の3日目にようこそ。 00:05.810 --> 00:09.470 そして今日は、 フロンティア・モデルについて見ていこう。 00:09.470 --> 00:16.760 今日の目標は、 これらの異なるモデルを深く理解することで、 どこが強く、 どこが弱いのか、 00:16.760 --> 00:21.920 両者の違いは何なのかを直感的に理解することだ。 00:21.920 --> 00:26.840 その違いを学び、 自分のビジネスや将来のプロジェクトにどのように応用するかを考え、 00:26.840 --> 00:35.570 どのような場合にどのモデルを選ぶかを理解する。 00:35.600 --> 00:37.040 さっそく始めよう。 00:37.100 --> 00:44.750 今日は6社の6つの異なるモデルについてお話しします。 00:44.780 --> 00:47.270 OpenAIは紹介するまでもないだろう。 00:47.420 --> 00:50.300 GPTは最も有名なモデルだ。 00:50.300 --> 00:53.090 もちろん、 0101のプレビューも見る。 00:53.240 --> 01:02.150 彼らの最新モデルとChatGPTは、 ユーザー・インターフェイス、 つまりユーザーが操作できる画面だ。 01:02.360 --> 01:05.180 人類学的なモデルも見てみよう。 01:05.210 --> 01:12.510 AnthropicはOpenAIの一番のライバルで、 同じくサンフランシスコに拠点を置き、 01:12.510 --> 01:16.380 OpenAIを去った人たちによって設立された。 01:16.380 --> 01:19.200 実際、 ご存じかもしれないが、 3つのパワーがある。 01:19.200 --> 01:21.300 一番小さなものは俳句と呼ばれる。 01:21.330 --> 01:23.310 クロード俳句、 そしてソネット。 01:23.310 --> 01:24.750 そしてオパスだ。 01:24.810 --> 01:31.770 しかし、 実際には、 ソネットにはもっと新しいバージョンがあるため、 後述するように、 ソネットの最新バージョンは、 01:31.770 --> 01:35.190 大きくて高価なオーパスよりも強いのだ。 01:35.190 --> 01:36.930 それは後でもっと理解できるだろう。 01:37.050 --> 01:42.360 しかし、 クロード・クロード3. 5ソネットはクロードのモデルの中で最も強力なものである。 01:43.050 --> 01:55.530 グーグルには、 おそらく最新のグーグル双子座があり、 私たちのほとんどは双子座をよく知っている。 01:55.650 --> 02:00.720 Geminiはもちろん、 もともとGoogleのBardと呼ばれていたものの次世代である。 02:01.320 --> 02:04.290 コヒーレはあまり聞いたことがないかもしれない。 02:04.290 --> 02:14.220 カナダのAI企業で、 彼らのモデルは専門知識を持つことを確認するためにラグと呼ばれる技術を使用していることで最もよく知られている。 02:14.220 --> 02:15.630 だから、 それを見ることになる。 02:15.720 --> 02:18.930 そして、 私たちはメタのラマ・モデルを知っている。 02:18.930 --> 02:20.940 私たち自身、 ラマを通じて利用したことがある。 02:20.970 --> 02:25.710 これはオープンソースのモデルで、 皆さんはご存じないかもしれないが、 実はメタはウェブサイト「メタAI」も持っていて、 02:25.950 --> 02:30.300 そこでラマ・モデルと対話することができる。 02:30.300 --> 02:32.220 それを見てみよう。 02:32.310 --> 02:39.540 そしてperplexityは少し違います。 perplexityは実際にAIを搭載した検索エンジンであり、 02:39.570 --> 02:43.230 Llmsを搭載しています。 02:43.230 --> 02:50.190 しかし、 彼らにも独自のモデルがあるので、 少し違うが、 当惑も見ていくことにしよう。 02:51.240 --> 02:58.290 つまり、 全体的に見れば、 これらのLLMの能力は驚くべきものなのだ。 02:58.320 --> 03:06.330 細かい質問、 微妙なニュアンスの質問を取り上げ、 よく研究されたように見える構造化された要約を提供することにおいて、 03:06.330 --> 03:10.260 彼らは実に効果的だ。 03:10.260 --> 03:16.470 導入部と要約のようなものがあることが多いが、 これは私がいつも使っている方法のひとつだ。 03:16.660 --> 03:22.900 そして、 私は、 これらのLLMが全体的に、 いかに優れているかということに衝撃を受けている。 03:22.930 --> 03:29.290 2、 3年前には、 ここまで早く到達できるとは誰も想像していなかったことだ。 03:30.040 --> 03:36.010 また、 本当に良い方法があります。 皆さんの多くは自分でこれをよくやっていると想像しますし、 03:36.040 --> 03:41.080 私も何かについてほんの少し箇条書きやメモを入れて、 これをメールにできないか、 03:41.110 --> 03:44.230 スライドにできないかと言うと、 そうします。 03:44.560 --> 03:52.600 彼らはそれを具体化し、 例えばブログ記事を構築するのがとても上手で、 反復するのがとてもうまい。 03:52.600 --> 03:55.360 だから、 彼らは何かをして、 そのうちのいくつかは気に入るだろう。 03:55.360 --> 03:58.330 そして、 フィードバックを与え、 前進と後退を繰り返すことができる。 03:58.330 --> 04:00.340 そして、 それは本当に効果的な仕事のやり方だ。 04:00.340 --> 04:05.260 それは、 とてもとてもとても効果的な副操縦士の構成だ。 04:06.220 --> 04:09.340 そしてもちろん、 コーディングだ。 04:09.340 --> 04:21.010 そして、 おそらく私たちの多くにとって最も驚異的なことは、 llmsがコードを書くこと、 問題をデバッグして解決することがいかに優れているかということだ。 04:21.190 --> 04:24.320 本当に驚くべきことだ。 04:24.320 --> 04:28.610 私自身、 非常に複雑で、 自分が深い専門知識を持っていると信じていることに取り組んでいて、 04:28.610 --> 04:34.040 かなり複雑なエラーが発生したときに、 詳細とスタックトレースをクロードに入力すると、 04:34.040 --> 04:47.750 何が間違っているのかの非常に正確な説明だけでなく、 クロードの右側にアーティファクトとして表示される修正コードも戻ってきた経験がある。 04:47.750 --> 04:50.330 そして、 それはそれは素晴らしい。 04:50.330 --> 04:51.830 本当に素晴らしいよ。 04:52.010 --> 04:57.470 実際、 スタックオーバーフローで探しても、 答えがないことが多い。 04:57.470 --> 05:02.840 どういうわけか、 Stack Overflowの回答の再掲にとどまらない。 05:02.840 --> 05:05.990 そして、 何が起こっているのかを本当に見抜いているようだ。 05:06.020 --> 05:14.120 だからこそ、 スタック・オーバーフローのトラフィックが大きく落ち込んだとしても、 驚くことではないのだろう。 05:14.150 --> 05:22.370 ChatGPTがリリースされた2022年第4四半期以降、 何かが大きく動き始めたことがわかるだろう。 05:22.610 --> 05:33.930 だから、 テクノロジーに携わる人たちがどのように問題解決に取り組むかというパラダイムを明らかに変えたんだ。 05:33.960 --> 05:35.100 とても効果的だ。 05:35.100 --> 05:42.570 そして、 もし私たちが取り組んでいることに行き詰まったら、 クロードやOpenAI GPTを試してみることをお勧めする。 05:43.560 --> 05:45.510 では、 どこが弱いのか? 05:45.510 --> 05:47.010 彼らが苦労していることは何か? 05:47.010 --> 05:49.230 この中で人類にまだチャンスがあるのはどこだろうか? 05:49.260 --> 05:59.190 まあ、 だからまず、 細かい知識が必要なものであれば、 専門的なテーマにはあまり強くない傾向がある。 05:59.280 --> 06:02.250 ほとんどのLLMはまだ博士号レベルには達していない。 06:02.280 --> 06:09.090 というのも、 10月にクロードの最新バージョン、 06:09.090 --> 06:16.620 クロード3が出たからだ。 5ソネットは、 数学、 物理学、 06:16.710 --> 06:23.070 化学の博士号レベルを超えている。 06:23.190 --> 06:29.220 だから、 このようなモデルが博士号レベルに達するのは非常に早いことなんだ。 06:29.220 --> 06:30.360 今のところクロードだけだ。 06:30.360 --> 06:36.540 しかし、 そのような人たちは、 特定の科学や特定の領域、 例えばビジネスの領域において、 06:36.540 --> 06:42.960 その領域の専門家のような専門的な知識を持っているわけではありません。 06:43.530 --> 06:46.260 そして2つ目は、 最近の出来事だ。 06:46.260 --> 06:52.170 そのため、 モデルはGPTの知識カットオフまでトレーニングされている。 06:52.200 --> 06:53.370 昨年10月のことだ。 06:53.370 --> 06:58.470 だから、 それ以降の情報についての質問には答えられない。 06:58.500 --> 07:01.740 そして、 彼らには奇妙な盲点がある。 07:01.740 --> 07:04.260 間違ってしまう問題もある。 07:04.260 --> 07:10.440 そして、 彼らが間違ったとき、 非常に気になることのひとつは、 自分の回答に自信を持つ傾向があることだ。 07:10.440 --> 07:14.550 彼らはしばしば、 自分が不確かであるという事実を自発的に口にすることはない。 07:14.550 --> 07:20.160 彼らはただ、 正解した場合と同じレベルの確信をもって答えを述べるだけなのだ。 07:20.280 --> 07:28.530 そして、 モデルが幻覚を見たり、 知らない新しい情報を思いついたり、 自信を持ってそうするのを見ると、 07:28.530 --> 07:32.190 もちろん心配になる。 07:32.190 --> 07:38.670 その例をいくつか見て、 盲点の背後にある理由とは何かについて話そう。