You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
 
 

58 lines
2.5 KiB

WEBVTT
00:00.350 --> 00:02.270
今週も楽しんでもらえると嬉しい。
00:02.270 --> 00:03.800
何度もやっている。
00:03.800 --> 00:11.120
私たちはあらゆる種類の新しいテクニックやモデルを試してきた。
00:11.270 --> 00:17.660
この時点で、 AIアシスタントを含むフロンティア・モデルをコーディングできるだけでなく、 リーダーボード・アリーナからの指標に裏打ちされたプロジェクトに適したモデルを選択できるだけでなく、
00:17.660 --> 00:31.640
フロンティア・モデルやオープンソース・モデルをコード生成に使用したり、 ツールベルトに追加するちょっとしたツールとして使用することもできる。
00:31.670 --> 00:41.750
Hugging Faceの推論エンドポイント機能を使って、 推論エンドポイントとしてモデルをデプロイすることもできる。
00:41.750 --> 00:45.470
おめでとう。
00:45.620 --> 00:51.440
そして、 おそらく私のように、 オープンソースがまったく及ばなかったことに少しがっかりしているのだろうが、
00:51.440 --> 00:54.080
それはそれで立派な仕事だった。
00:54.080 --> 00:55.280
とても楽しかった。
00:55.280 --> 01:02.690
また、 PythonをC+++に最適化する多くの作業では、 Codexが素晴らしいことがわかるだろう。
01:02.750 --> 01:17.810
でも結局のところ、 70億のパラメータを持つモデルを、 1よりはるかに多いパラメータと比較することになるんだ。
01:17.810 --> 01:17.810
76兆のパラメーターモデル、 GPT4とGPT4とクロード3だった。 5ソネットはもっと大きいと考えられている。
01:19.070 --> 01:22.880
特にフェアな試合ではなかったね。
01:22.880 --> 01:28.580
そのような状況の中で、 コーデックスは本当によくやったと思う。
01:28.640 --> 01:34.940
次回は、 オープンソースとクローズドソースのモデルの比較、 パフォーマンス、 コード生成のさまざまな商用ユースケースについて、
01:34.940 --> 01:46.760
そしてあらゆる種類のタスクにこの種のコード生成技術を使用するソリューションを構築できるようになることについて話す予定だ。
01:46.760 --> 01:47.840
楽しみにしているよ。
01:47.840 --> 01:48.710
それじゃ、 また