【内容】
- 新モデルのGPT-4o miniについてOpenAIのモデルと比較
- 他社モデル、Claude3 HaikuやGemini 1.5 Flashと比較
- miniは影響を受ける人とあまり受けない人で分かれる
- 新しい音声モード公開直近の噂
---
生成AIのニュースレターを始めました🎉 AIの最新情報や知見を効率よくキャッチアップできます。
登録はこちらから→https://bit.ly/3Cq9LDG
---
「耳で学ぶAI、ロボシンク」ではChatGPTなどのAIを初心者向けに分かりやすく解説します。
---
👨💻パーソナリティ
矢野哲平
「AIを分かりやすく、楽しく」をコンセプトにポッドキャストやnoteでAI情報を発信。株式会社root c代表取締役。福岡出身。
◎note
◎X: 矢野哲平
---
【リソース】
◎Artificial Analysys
https://artificialanalysis.ai/
◎GPT-4o miniプレスリリース
https://openai.com/index/gpt-4o-mini-advancing-cost-efficient-intelligence/
---
◎番組の感想や要望はこちら
Summary
今回のエピソードでは、新モデルGPT-4o miniの登場について話しています。ミニはコストが安くてスピードが速いモデルで、APIを使っている人にとってはコスト削減の恩恵を受けられる一方、画像処理に関してはコストが高くなるため注意が必要です。オープンAIが新モデルGPT-40 MINIを発表し、他社の軽量モデルと比較して高い性能を示しています。
GPT-4o miniの特徴
みなさんこんにちは、ロボシンクの矢野です。
この番組は、耳で学ぶAIをコンセプトに、初心者向けにAIを分かりやすく解説する番組です。
今回のテーマは、新モデルGPT-4o miniが登場、何がどう変わったのかについて話していきます。
はい、ということで、今日はGPT-4o miniについて話していきます。
ちょっと呼びづらいですね。GPT-4o miniですね。
皆さん、GPT-4o miniは使ってみましたでしょうか。
こちらですね、先週の7月19日金曜日に、OpenAIから公開された新しいモデルになります。
今日はですね、このGPT-4o mini、ちょっと呼びづらいですね。
以降はGPT-4o miniをミニと省略して話したいと思います。
このミニに関して、実際に使ってみた感想などを話していきたいと思います。
今日話すポイントは主に3つになります。
1つ目に、そもそもミニはどういったものなのか、
既存の他のモデルとどういったところが違うのかというところを話していきます。
そして2つ目に、実際に私がミニを使ってみて感じた感想ですね。
それを話していきたいと思います。
そして最後3つ目に、ミニはコストが安いというふうに言われているんですけども、
1つだけちょっと注意点があったので、それを話していきたいと思います。
あとはですね、最後に音声機能についても少し触れたいと思います。
ちょっとこれはですね、ミニとは違った話になってくるんですけども、
スマホアプリ版で音声機能がありましたよね。
こちらに動きがあったようなので、この音声機能についても触れたいと思います。
はい、では早速本題に入っていきます。
GPT-40 MINIですね。
名前から想像できるように、こちらは軽量のモデルとなります。
これですね、簡単に言うとコストが安くてスピードが速いモデルになります。
このモデルについて補足すると、
ChatGPTのような生成AIにはモデルというものが存在します。
これはですね、例えて言うとエンジンのようなものをイメージしていただくとわかりやすいと思います。
エンジンのようなもので、高性能なモデルであるほど回答精度が良かったりするわけですね。
直近では、オープンAAは今年の5月にGPT-40というモデルを発表しました。
このポッドキャストでも以前にGPT-40のモデルというのは取り上げました。
そこから2ヶ月経って7月ですね、GPT-40 MINIという新しいモデルを発表したと。
先週の金曜日に発表したというこんな流れになります。
なので前回の新しいモデルの発表から約2ヶ月くらいの期間が空いたわけですけども、
新しくオープンAAがモデルをリリースしてきたというわけです。
このGPT-40 MINIは無料プランの人も使うことができます。
使い方をお伝えするとChatGPTの画面がありますよね、パソコン版の。
画面のちょっと左上にモデルの名前というのが表示されています。
今だとGPT-40ですね。
GPT-4o miniの回答精度と速度
このGPT-40の部分をクリックするとGPT-40 MINIに変更できるというわけです。
これは無料版の人も有料版の人も変更することができます。
誰でも使えるモデルというわけですね。
アプリ版の場合、アプリから使っている人も同じように画面の上の中央部分ですかね、
GPT-40の部分をクリックするとMINIのモデルに切り替えることができます。
回答精度を比較してみるとですね、
GPT-40がやっぱり回答精度はいいですね。
その次にGPT-40 MINIが間に入ってきて、
その次にGPT-3.5 TURBOですね。
なのでGPT-40 MINI GPT-3.5という順番で回答精度がいいですね。
なのでGPT-40の方が回答精度としてはいいんですね。
実際に私が使ってみた感じだと、
そうですね、やっぱりGPT-40の方が回答の精度としては高いと思います。
ただですね、通常、一般的な質問した場合というのはそんなに違いは感じませんでした。
ただ少し入り組んだ質問になってくると、
回答精度としてはGPT-40の方が上だなぁと感じています。
最近よく私、ノートで記事を書いているんですね、AI関連の。
記事を書いた後にチャットGPTに文章の構成をお願いしています。
この文章の構成で比較したところですね、やっぱりGPT-40の方が精度が良かったですね。
一般的な簡単な質問だとそんなに違いは感じないんですけど、
やっぱりちょっと複雑なタスクになってくるとGPT-40の方が精度が高いというわけですね。
ここまで聞くと、GPT-40の方が回答精度が良いのであれば、
MINI使う必要なくないと思った人もいるかもしれません。
GPT-40の方が回答精度が良いのであれば、MINIは使う必要がないんじゃないですかと。
まぁ、そうですよね。そう感じる人がいてもおかしくないと思います。
このGPT-40 MINIに関しては、ものすごく影響を受ける人と、あまり影響を受けない人、この2つに分かれると思います。
ものすごく影響を受ける人っていうのは、APIを使っている人ですね。
このAPIっていうのは、プログラムのコードからチャットGPTを操作するようなものですね。
このAPIっていうのは、使うごとにお金がかかってくるんですね。重量課金制のようなものです。
この新しく出たMINIっていうのは、非常にコストが安いんですね。
具体的に言うと、GPT-3.5Tと比べて60%以上コストが安くなると。
GPT-40と比較してもコストが安いと。
なので、APIを使っている人で、重量課金で金額がかかってくる人、こういった人はですね、GPT-40 MINIを使うと非常にコストが安くなるということで恩恵を受けるわけですね。
私自身もAPIからチャットGPTを使っているので、早速GPT-40からGPT-40 MINIに切り替えました。
計算上はですね、非常にコストが安くなるというわけですね。
一方でAPIを使っていない人、チャット画面からチャットGPTを使っている人、こういった方はですね、そんなにMINIが出たことで影響はないのかなと思います。
なぜなら、いくら使っても金額っていうのは変わらないからですね。
そう考えた時に、GPT-40の方が精度が高いので、じゃあMINIを使う意味っていうのはあまりないのかなという意見もあると思います。
そうですね、私もそうは思ったりはします。
あえてメリットを挙げるとすればですね、速度が速くなったことでしょうか。
これちょっとポッドキャストを聞いた後にちょっと試してみてほしいんですけど、回答を生成するスピードっていうのがGPT-40よりも明らかに速いんですね。
軽量モデルということで、回答の生成スピードというのが上がっています。
なので、チャットGPTを使っている中で遅いと感じている人、今でもですね、結構速いとは思うんですけど、遅いと感じた人はMINIを変更してもですね、いいかなと思います。
ただ、先ほども話したように回答の精度っていうのはGPT-40の方が高いんですね。
なので、回答の精度を取るか、回答の速度を取るか、トレードオフといった感じかなと思います。
例えば、文章の構成や文章の作成のような回答の精度が求められるタスク、それに関してはGPT-40を使うと。
GPT-4o miniのコストと注意点
一方で日常的なタスクですね、そこまで回答精度が求められないようなタスク、これにはMINIを使って速度重視で運用すると。
こういった感じでしょうか。
なので今回、GPT-40 MINIという新しいモデルが発表されたわけですけども、そしてこのモデルというのは誰でも使うことができます。
無料ユーザーも有料ユーザーも使うことができると。
ただ、MINIが出たことで影響を受ける人と影響をあまり受けない人っていうのは結構ですね、二極化するのかなといった感じがします。
コストに関しての注意点をちょっと一つだけ話したいと思います。
もともとMINIはコストが安くてスピードが速いというふうに言われています。
ただですね、一つだけ注意点があるんですね。
それは画像処理に関しては全然コストは安くないですよっていう話になります。
MINIが出た時に今までのモデルよりも全然このAPIのコストが安いということで結構喜んでいたんですね。
ただ、オープンAIの海外のユーザーが集うフォーラム、掲示板みたいなものがあるんですね。
そこにちょっと気になる書き込みを見つけまして、その内容というのがですね、
いやいや、画像処理に関しては全然安くないよと。
GPT-4.0 MINI、画像の処理に関しては全然安くないよっていう書き込みがあったんですね。
これがちょっと盛り上がってたんですね。
この画像処理っていうのはChatGPTに画像を投げて、この画像に書かれている文字を抽出してのようなタスクですね。
GPT-4.0でもできます。
例えば、領収書投げて、領収書に書かれている文字を抽出してというような、そういったことですね。
この海外のフォーラムによるとですね、GPT-4.0 MINIの画像処理は全然コスト安くないよと。
これ、私も気になって自分で調べてみました。
結果ですね、確かに安くないですね。
端的に言うと、GPT-4.0と比較した場合、画像1枚あたりのコストっていうのが同じになります。
つまり、GPT-4.0に画像処理を依頼した場合と、MINIに画像処理を依頼した場合、コストっていうのはほぼ同じになります。
これですね、結構落とし穴なので、APIで使う予定がある人っていうのはご注意ください。
確かにテキストの処理は安いです。
ただ、画像は普通に高いです。
この話っていうのはAPIで使う方向けの話なので、通常通り使っている方っていうのは心配される必要はないです。
ご安心ください。
オープンAIのGPT-40 MINIの性能比較
ちなみに、MINIはテキスト以外だと現状、画像の処理もお願いすることができます。
例えば、レシートを文字起こししたりとか、英語の本を撮影して、これを日本語に翻訳してとかですね、
そういったことができます。
今後、動画と音声にも対応していくということです。
今までオープンAIって、MINIのような軽量のモデルって発表してなかったんですよね。
このタイミングで、いきなりMINIが投入されたわけです。
実はこういった軽量のモデルっていうのは、他社はオープンAIよりも先に発表しています。
競合のアンソロピックという会社や、あとはGoogleですね。
ChatGPTと同じような生成AIを開発しているライバル企業になります。
アンソロピックは、クロード3ハイクという軽量モデルですね。
そしてGoogleは、ジェミニ1.5フラッシュという軽量モデルを以前から公開しています。
じゃあこれらの軽量モデルを比較したときに、どのモデルが性能が良いのかという話になってきます。
これに関してはですね、オープンAIがGPT-40 MINIを発表したときのプレスリリースの中でこう言及しています。
ちょっと引用しますね。
数学的推論では、ジェミニフラッシュの75.5%、クロードハイクの71.7%に対し、GPT-40 MINIは87%を記録した。
数学的の推論では、ジェミニやクロードよりも良いスコアを叩き出したと。
続けますね。
コーディングでは、ジェミニフラッシュが71.5%、クロードハイクが75.9%であったのに対し、GPT-40 MINIは87.2%を記録した。
コーディングっていうのはプログラミング関連のタスクですね。
こんな感じで、他社の軽量モデルよりも、うちのGPT-40 MINIの方が優れているよということをプレスリリースで発表しているわけです。
こうしたときはですね、オープンAIの話も聞きつつ、外部の評価というのも合わせてみるといいと思います。
当事者だけの主張を鵜呑みにせずですね。第三者の意見もしっかり見ると。
こうした言語モデルの比較をするときに、おすすめのサイトっていうのがあります。
Artificial Analysisという外部のサイトですね。海外のサイトになります。
こちらでわかりやすく言語モデルを比較してくれています。
GPT-40 MINIは先週の金曜日に発表されたばかりですけども、
早速このサイトではですね、MINIと他の言語モデルというのが比較されています。
例えば品質ですね。
Artificial Analysisによると、順番としてはですね、まずMINIの方がいいと。
その次にFLASH、そしてHAIKUの順番になっていますね。
つまりGPT-40 MINIが3つの中で一番回答精度がいいというわけですね。
軽量モデルの3つを比較したときに、品質においてはMINIが一番良かったですよと。
次にスピードですね。回答の生成速度ですね。
これはですね、FLASH、HAIKU、MINIの順番になっていました。
つまり生成スピードに関しては、Googleの1.5 Pro FLASHが一番速くて、MINIが一番遅いというわけですね。
そして次に価格ですね。これは先ほども言ったAPIの価格、コストになります。
価格に関しては安い順番にですね。安い順番です。
MINIが一番安くて、FLASHとHAIKUが同順位というわけですね。
なので一番コストに関してはMINIが安いというわけです。
比較結果としては回答精度が良くて価格も安いと。
ただ回答のスピードはHAIKUとFLASHに比べてちょっと遅いと。
あの一つの判断材料になると思います。
回答が良くて価格も安い。ただスピードはHAIKUとFLASHに比べてちょっと遅いというわけですね。
ちなみにこのサイトですね。Artificial Analysis。
新しいモデルが出た時とか、普段使っている中で
他の言語モデルってどうなのかなって思った時に重宝するので
興味がある方は覗いてみてください。概要欄にリンクを貼っておきます。
新しい音声モードの導入
ちょっと全然話が変わるんですけど、新しい音声モードが導入されるという話も出てきていますね。
スマホアプリ版でChatGPTと会話ができますよね。音声で。
あれをさらに強化した音声モードっていうのが以前から実装されるっていうのは話はありました。
これがいよいよ実装されるんじゃないかというふうに言われています。
具体的にはですね、7月の下旬なのでもうそろそろですね。
7月の下旬に少人数のプラスユーザー向け、つまり有料ユーザー向けに新しい音声モードが公開される予定と言われています。
ちょっと残念なのが全員に向けてではないんですね。
一部の有料ユーザー向けに7月下旬から新しい音声モードを公開していくというわけですね。
ちょっと全員に向けてではないのが残念ではありますが、そういった感じですね。
以前ポッドキャストでも紹介したんですけど、まあこれ性能がすごいんですよね。
より人間のような会話がAIとできます。
今ってAIと会話をした時に会話の割り込みっていうのができないんですね。
チャットGPTが全部会話が終わるまで人間側の入力っていうのはできないようになっています。
新しいボイスモードでは一気にですね会話のレベルが上がるので、外国語学習なんかに活躍してくれるんじゃないかなと思います。
以前オープンAIが公開したデモっていうのがすごかったんですね。
もしですねデモ通りの機能が実装されるのであればですね、変な話海外旅行とかでかなり活躍するかと思います。
チャットGPT、今から日本語の内容を英語に翻訳して、そして英語の内容を日本語に翻訳してっていうと、
チャットGPTを通して海外の人と言語が違う人と会話ができてしまうわけですね。
これ海外に行かなくても、日本で外国の方に話しかけられた時でも活躍するかもしれませんよね。
これはですねかなり楽しみですね。
またこの音声モードに関しては情報が入ったらこのポッドキャストでも紹介したいと思います。
それでは今日のポイントをまとめます。
GPT-40 mini は速度が速くてコストが安いモデルになります。
2点目にGPT-40に比べて若干回答の精度が落ちます。
ただ回答の速度はGPT-40より早いです。
3つ目にAPIを使う方ですね。
画像処理のコスト、GPT-40 mini は決して安くはないので、この点だけご注意ください。
はい、今日はこの辺ということで、本日も聞いていただきありがとうございました。
このポッドキャストをAppleやSpotifyで配信をしています。
先日Appleの方で星5のレビューを新しくいただいておりました。
モチベーションつながります。ありがとうございました。
こんな感じで番組ではAIの情報というのを毎週発信しています。
毎週水曜朝に更新していますのでぜひフォローお願いいたします。
感想もいただけると嬉しいです。
XやNOTEもやっています。
こちらも興味ある方は覗いてみてください。
お相手はロボシンクのヤノでした。また次の配信でお会いしましょう。
19:08
Comments
Scroll