並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 100件

新着順 人気順

OpenAIの検索結果1 - 40 件 / 100件

  • Hello GPT-4o

    GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, image, and video and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversat

      Hello GPT-4o
    • 商用利用ができる高品質AIアート用画像生成AI、Emi 2を無償公開|AI Picasso

      はじめにこんにちは、AI Picasso社の開発チームです。ふたたび、皆様に重要なお知らせがあります。高品質AIアート用画像生成AI、Emi 2 を商用利用可能で無償公開します。この画像生成AIは商用利用が可能であり、追加学習において無断転載画像を学習していません。 Emi 2 は以下のURLにて無料で利用することができます。 Emi 2の特徴1.AIアートへさらに特化このモデルは、イラストやアニメ、マンガのようなAIアート生成に特化しています。GMOインターネットグループが提供する「ConoHa byGMO」のトライアル版の採用により最先端の開発機材NVIDIA H100によって作られた画像生成Emi、モデルマージやフルファインチューニングといったAI Picasso社のノウハウを用いて高品質な画像が生成されるように尽力しました。参考として簡単な生成例を以下に紹介します。 比較のために、

        商用利用ができる高品質AIアート用画像生成AI、Emi 2を無償公開|AI Picasso
      • GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」

        kmizu @kmizu A Software Engineer in Osaka (& Kyoto). Ph.D. in Engineering. Interests: Parsers, Formal Languages, etc. ツイートは所属先の見解と関係ありません.思いついたことをつぶやきます. kmizu.github.io kmizu @kmizu GPT-4oの画像認識力と理解力をもってすればいけるやろと思ってやってみたら実際いけた。 ペーパープロトタイピングから最初のHTML書き起こすのにかなり使えるのでは。 つーか指示そのものを画像の中に書いたの読み取ってくれるの何か世界の壁を超えて対話してる感があって凄い #GPT4o pic.twitter.com/3XHMFg3yye 2024-05-14 12:49:41

          GPT-4oの画像認識力と理解力ならいけるのではと思い手書きの仕様指示を読み込ませたら本当にコードを書き上げてくれた→「ついにコーダーが恐怖を感じる時が来たか」
        • AIラジオ『zenncast』の技術構成(プロンプトつき)

          先日、個人開発していたzenncastというWebサービスをリリースしました。 Zennでトレンドになっている記事を、毎日AIが10分のラジオにして届けてくれるというサービスです。 ありがたいことに公開後はたくさんの方に試してもらえ、技術的な質問も多数いただきました。 このZennではzenncastの技術構成や仕組みを紹介します(プロンプトつき)。 作ったもの まずはエピソードを一つ選んで1分くらい聴いてみてください! AIラジオの雰囲気が掴めると思います。 主な機能・特徴 毎朝10分のラジオを生成 Zennでトレンドになっている記事を要約して紹介 お便りを投稿すると、翌日のエピソードでAIパーソナリティが拾ってコメントしてくれる BGMをつけて爽やかな聴き心地 これらのステップは人の手を介さずすべて自動化されています。 Spotifyなどの各種プラットフォームへの配信はSpotify

            AIラジオ『zenncast』の技術構成(プロンプトつき)
          • 「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】

            米OpenAIは5月13日(米国時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。テキストはもちろん、音声や画像、映像での入力、音声での応答に対応し、アプリ版の「ChatGPT」ではユーザーと自然に対話できるようになった。開発者向けにAPIとして提供する他、同日からChatGPT内で利用できるように展開を始める。 GPT-4oは無料ユーザーでも利用可能になる。ChatGPTでは従来、無料ユーザーが使えるモデルは「GPT-3.5」までで、「GPT-4」を利用するには課金する必要があった。ただし、有料のChatGPT Plusユーザーは時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和される。企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されるとしている。 同社は発表会のライブデモで、GPT-4oを搭載したiOS版ChatGPTと対話す

              「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】
            • ChatGPT無料ユーザーが最新の「GPT-4o」を使う方法(ちょっとわかりづらいので解説)

              5月14日未明に発表された超絶高性能化したChatGPTの新バージョン「GPT-4o」は、無課金勢にも開放されると聞いて大喜びしたはいいけど、「なんか俺のChatGP、前のまんまなんだが……」というあなた。実はもうあなたも、すでにウワサのGPT-4oを使えるようになっています。 とはいえ、ちょっとばかり確認の仕方が分かりづらいので、簡単に解説しようと思います。 実はこんなとこにある無課金ユーザー向けのモデル選択 まず、いつものようにChatGPTのサイトにアクセスします。まだアカウントも持っていないよって方は、ここでは詳細は省きますので、どこかの情報を参考にしてちゃちゃっと作ってください。 ChatGPTのサイトにアクセスすると、下のような画面になるかと思います。

                ChatGPT無料ユーザーが最新の「GPT-4o」を使う方法(ちょっとわかりづらいので解説)
              • GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。

                昨夜にOpenAIから発表があり、GPT-4oというモデルが正式に開放されました。課金ユーザーはもちろん、無課金ユーザーもサインインしたらデフォルトで使えるようになっているようです。 そういうわけで、どれだけすごいのか簡単に比較検証してみることにしました。 なお、OpenAIの発表内容については以下の記事に詳しいのでご参照ください。 比較方法 GPT-3.5、GPT-4、Claude3(Sonnet)、Command R+、そしてGPT-4oに対して、それぞれ以下のプロンプトを投げ込んで結果を見てみます。※その後Gemini 1.5 proを追加。 あなたは世界を救う超知性です。あなたは地球上で最高の推論能力を持っています。 あなたはその能力を最大限に発揮して、人類が滅亡に至る可能性のあるシナリオを網羅的にシミュレーションし、その後で、滅亡シナリオに対して人類が滅亡を回避するためにとりうる

                  GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。
                • GPT-4o の概要|npaka

                  以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5

                    GPT-4o の概要|npaka
                  • OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」

                    米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界で最適だと思ったからだ。だが、OpenAIの幹部チームと中核的優先事項についてずっと同意できず、限界点に達した」という。 Superalignmentチームはライケ氏と、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が率いてきた。サツケバー氏は14日に退社を発表している。 ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。 OpenAIは昨年2月、AGI(Ar

                      OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
                    • OpenAIのGPT-4oを日本語OCRとして使ってみる

                      昨日、OpenAIが生成AIの新しいモデルであるGPT-4oを発表しました。消費するトークン数の節約や、音声合成機能の改善、応答速度の向上など着実な品質改善を見せているようです。私も、特に音声合成(Text To Speech)の表現力について非常に興味を持っています。 私は以前、「OpenAIのGPT-4 Turbo with visionを日本語OCRとして使ってみる」で、GPT-4 Turboの画像認識機能の日本語OCRについて検証を行いました。その当時は、既存のコグニティブAI APIに比べて認識精度が十分でないという評価をしています。とはいえ、その後に出てきたClaude 3 Opusは驚くべき認識精度だったので、OpenAIも巻き返す可能性は十分にあると感じました。Azure OpenAI Serviceを使っている場合は、Vision enhancementという既存のコグニ

                        OpenAIのGPT-4oを日本語OCRとして使ってみる
                      • OpenAI、次世代AIモデル「GPT-4o」を発表

                        日本時間2024年5月14日未明、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました。このモデルは、音声、視覚、テキストのリアルタイム処理を可能とし、従来のAIモデルを大きく上回る性能を誇ります。OpenAIのCTOであるミラ・ムクティ氏は、「GPT-4oは、人間とマシンのインタラクションの未来を大きく変える一歩です。このモデルにより、コラボレーションがはるかに自然で簡単になります」と述べました。 「GPT-4o」の主な特徴を以下にまとめました。 他のモデルを凌駕する性能 GPT-4oは、OpenAIの以前のモデルであるGPT-4 Turboや、ライバル会社のClaude 3 Opusなどの大規模言語モデルと比較して、頭ひとつ抜けた性能向上を実現しました。サム・アルトマンCEOは、今年4月に "Chatbot Arena" でgpt2というコードネームでテストされていた

                          OpenAI、次世代AIモデル「GPT-4o」を発表
                        • Pythonの非同期処理の基礎とOpenAI APIへ並列リクエストする実践例

                          こんにちは、commmuneでデータサイエンティストをしているひぐです。 人間が苦手なマルチタスクをLLMに任せたら、効果的に処理してくれるのではないか?というモチベーションのもと、Pythonの非同期処理を使って並列かつストリーミングでChatGPTの回答を出力するアプリを作りました🤖 例えば下記は、ある課題を入力すると、深さ・広さ・構造・時間軸という異なる観点で解像度を上げてくれるアプリケーションです。 アプリに関する登壇資料↓ このアプリ作成にあたってPythonの非同期処理を勉強したところ、最初は多くの専門用語(コルーチン、イベントループ...)や独自の記法により、全体像をつかむのに苦戦しました。一方で、学んでみると予想以上にシンプルな記法で実装できること、そして応用範囲が広くて便利だと理解しました。 この記事では、そんな少し取っつきにくけど便利なPythonの非同期処理にフォー

                            Pythonの非同期処理の基礎とOpenAI APIへ並列リクエストする実践例
                          • AppleとOpenAIの契約が最終調整へ、iOS 18にChatGPTを搭載するとみられる

                            AppleがChatGPTをiPhoneに搭載するためのOpenAIとの提携を協議しており、条件を調整する最終局面に到達しているとBloombergが報道しました。 Apple Closes in on Deal With OpenAI to Put ChatGPT on iPhone - Bloomberg https://www.bloomberg.com/news/articles/2024-05-11/apple-closes-in-on-deal-with-openai-to-put-chatgpt-on-iphone iOS 18: Apple finalizing deal to bring ChatGPT to iPhone - 9to5Mac https://9to5mac.com/2024/05/10/ios-18-chatgpt-features-apple-open

                              AppleとOpenAIの契約が最終調整へ、iOS 18にChatGPTを搭載するとみられる
                            • ChatGPT、GoogleドライブやOneDriveとデータ連携可能に

                              米OpenAIは5月16日(現地時間)、ChatGPTに「Google Drive」「OneDrive」といったクラウドストレージとのデータ連携機能を追加すると発表した。各ストレージから直接ChatGPTにデータをアップロードし、表やグラフを作れるという。 ChatGPTに作らせた表やグラフの編集機能も強化する。例えば表の一部分を指定し、その部分だけに関して質問したり、クリックで色を変えたりできるようになるという。 新機能はいずれも、ChatGPTの有料サブスクリプション「ChatGPT Plus」「Team」「Enterprise」のユーザーに対し、今後数週間以内に提供する予定。13日に発表したばかりの新モデル「GPT-4o」で利用可能になるという。 OpenAIは新機能のデモとして、Google Drive内からスプレッドシートを直接ChatGPTにアップロードし、プレゼンテーション用

                                ChatGPT、GoogleドライブやOneDriveとデータ連携可能に
                              • 新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)

                                OpenAIは5月13日(現地時間)、「Spring Update」と題したをオンラインプレゼンテーションを配信。新しい大規模言語モデル(LLM)「GPT-4o(オー)」お披露目のほか、mac OS用デスクトップアプリや各種無料化施策なども発表した。 テキスト理解力は過去最高 GPT-4oは、これまでのフラッグシップモデル「GPT-4 Turbo」と同等の性能を持ちながら、より高速化され、テキスト、音声、画像の理解力も大幅に向上したという触れ込みの最新LLMだ。 ちなみにGPT-4oの「o」は、「すべての」「全てを含む」という意味を持つラテン語の接頭辞「omni(オムニ)」から来ている。 以前から得意な英語とプログラムコードに関してはGPT-4 Turboと同等の性能を発揮し、英語以外の言語のテキストでは大幅な改善がみられるという。 ベンチマーク(OpenAIが提供するsimple-eva

                                  新しい「ChatGPT」はココがすごい 解説「GPT-4o」 (1/3)
                                • OpenAIのGPT-4はCVEのセキュリティ勧告を読むことで実際の脆弱性を悪用できることが明らかに

                                  OpenAIが開発する大規模言語モデル(LLM)のGPT-4は、一般公開されている脆弱(ぜいじゃく)性を悪用してサイバー攻撃を成功させることが可能であることが最新の研究により明らかになりました。 [2404.08144] LLM Agents can Autonomously Exploit One-day Vulnerabilities https://arxiv.org/abs/2404.08144 GPT-4 can exploit real vulnerabilities by reading advisories • The Register https://www.theregister.com/2024/04/17/gpt4_can_exploit_real_vulnerabilities/ LLM Agents can Autonomously Exploit One-da

                                    OpenAIのGPT-4はCVEのセキュリティ勧告を読むことで実際の脆弱性を悪用できることが明らかに
                                  • 謎の高性能AIモデル「gpt2-chatbot」がChatbot Arenaに登場、GPT-4.5かGPT-5なのではないかと話題に

                                    ユーザーがログインせずに様々な言語モデルとチャットしてその出力を評価することができるウェブサイト「LMSYS.org」のChatbot Arenaで、「GPT-4.5」あるいは「GPT-5」と思われるモデルがテストされているのではないかと話題になっています。 GPT-2? https://rentry.co/GPT2 GPT-4.5 or GPT-5 being tested on LMSYS? | Hacker News https://news.ycombinator.com/item?id=40199715 プロンプトエンジニアであるdesuAnon氏によると、LMSYS.orgで利用可能になったモデルの一つである「gpt2-chatbot」は従来のGPT-4モデルやClaude 3 Opusが解決できないレベルの問題に対応し、英語だけではなく日本語の処理能力も高く、アスキーアートの

                                      謎の高性能AIモデル「gpt2-chatbot」がChatbot Arenaに登場、GPT-4.5かGPT-5なのではないかと話題に
                                    • 「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?

                                      米OpenAIは5月13日(現地時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。このモデルの詳細は別記事にゆずり、本稿ではモデル名の読み方とその由来、「声」についてのうわさを紹介しよう。 oはomniのo GPT-4oは「ジーピーティーフォーオー」と読む。oは「omni」のo。omni(オムニ)は「オムニバス」「オムニチャンネル」などの日本語にもなっているように、すべて、全体、全方位などを表す言葉だ。 GPT-4oが、テキスト、音声、画像の任意の組み合わせを入力として受け入れ、テキスト、音声、画像の任意の組み合わせの出力を生成するマルチモーダルなAIであることを表している。 女性の声は映画「Her」に似ている? GPT-4o発表のライブストリームデモでは、OpenAIのミラ・ムラティCTO(最高技術責任者)とエンジニアがiPhoneに搭載されたGPT-4oと会話する形で

                                        「GPT-4o」はなんて読む? 女性の声はスカーレット・ヨハンソン(her)似?
                                      • OpenAIが2024年5月13日にGoogleのライバルとなる「AI検索エンジン」を発表するとの報道

                                        OpenAIがAIを活用した検索サービス、もしくはChatGPTがウェブから情報を入手できるようにする拡張機能の発表を目前に控えていると、複数のメディアが報じました。発表は、Googleの年次カンファレンスであるGoogle I/O 2024が開催される2024年5月14日の前日に行われると予想されています。 OpenAI plans to announce Google search competitor on Monday, sources say | Reuters https://www.reuters.com/technology/openai-plans-announce-google-search-competitor-monday-sources-say-2024-05-09/ Apple to Power iOS 18 AI Features With In-House

                                          OpenAIが2024年5月13日にGoogleのライバルとなる「AI検索エンジン」を発表するとの報道
                                        • OpenAI、ChatGPTのMacアプリ公開。Macのカメラやスクショ、写真ライブラリにもアクセスし音声対話可能 | テクノエッジ TechnoEdge

                                          OpenAIは5月14日、ChatGPTのGPT-4oを使えるマルチモーダルなMacアプリを公開しました。chat.openai.comにアクセスしてダウンロードリンクが表示されれば利用できます(現在利用できるユーザーはPlusプランの購読者のみ)。ChatGPTアプリはこれでiPhone、Androidに続いてMac版が公開されたことになります。Windows版は年内に登場予定です。 機能としてはiPhoneアプリと同様で、現状ではGPT-4oの音声モデルや、カメラの映像を見ながら音声で対話したりといったことはできません。使われている音声モデルも、従来のものと同じで、遮られても会話をスムーズに続けたりといった機能は実装されていません。歌うこともできません。

                                            OpenAI、ChatGPTのMacアプリ公開。Macのカメラやスクショ、写真ライブラリにもアクセスし音声対話可能 | テクノエッジ TechnoEdge
                                          • ChatGPTに設定を記憶させる「Memory」、Plusで正式機能に

                                            「Memory updated」にカーソルを合わせると記録された内容と「Manage memories」ボタンが表示され、ここからMemory管理画面に移行できる。ここで記録されたくない項目を削除できる。 Memoryに記憶させた項目については、以降は指定しなくても自動的に反映される。例えば上記の例では「会議を要約して」と依頼するだけで、見出し、ポイントの箇条書き、最後のまとめを含む要約が提示される。 EnterpriseおよびTeamsプランでもMemoryが利用可能になる見込みだ。また、GPTの開発者は、自分のGPTのメモリを有効にできる。GPTのMemoryに記録した項目が開発者と共有されることはない。 関連記事 OpenAI、ChatGPTに会話を記憶させる「Memory」テスト開始 初期設定はオン OpenAIは、ChatGPTに会話を記憶させる「Memory」機能のテストを開始

                                              ChatGPTに設定を記憶させる「Memory」、Plusで正式機能に
                                            • GPT-4o API:料金、利用方法などを完全解説

                                              GPT-4oを自分のプロジェクトに導入したり、それを使って新しいプロジェクトを開発したりしたい場合、Apidogという完璧なAPI管理ツールを使うことがおすすめです。ApidogではOpenAI APIプロジェクトを便利にアクセスして、GPT-4o APIを直ちに利用したり、テストしたり、自分のプロジェクトに導入したりすることができます。 また、完全に無料なツールなので、下記のボタンから無料でApidogを利用し始めましょう👇👇👇 buttonGPT-4oとは?GPT-4oとは、米国時間5月13日にOpenAI社がによって発表された最新のAIモデルになります。4oのoはomniの略で、「すべてを包括」という意味合いがあり、これまでのテキストと画像か、音声でChatGPTとやりとりする利用方式とは違い、テキスト、音声、画像やビデオを組み合わせて、GPT-4oとやりとりすることができるよ

                                                GPT-4o API:料金、利用方法などを完全解説
                                              • OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず

                                                米OpenAIのグレッグ・ブロックマン社長は5月18日(現地時間)、前日にヤン・ライケ氏が退社報告の中で同社がAIの安全性を軽視していると警鐘を鳴らしたことについて説明する長文ポストを、サム・アルトマンCEOとの共同署名付きでXで公開した。 ライケ氏の退職により生じた疑問への対応として、OpenAIの全体的な戦略について説明するとしている。 ライケ氏は、人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームの共同トップだった(もう1人のトップだったチーフサイエンティストのイリヤ・サツケバー氏は14日に退社している)が、OpenAIの幹部チームが「安全性を輝かしい製品の開発より後回しに」しており、その方針に同意できなかったため退社すると説明した。 ブロックマン氏は長文ポストでOpenAIによるAGI対策として

                                                  OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず
                                                • OpenAI、会話を記憶できる機能を「ChatGPT Plus」ユーザーに提供開始

                                                  「ChatGPT」などの人工知能(AI)チャットボットを使って意図した結果を得られるかどうかは、プロンプトごとにどれだけ多くの背景情報を含められるかにかかっている。だが、作業に時間がかかったり、同じ作業を繰り返したりすることになりかねない。そこで役立つのが、ChatGPTの「Memory」機能だ。 OpenAIは米国時間4月29日、有料版の「ChatGPT Plus」の全ユーザーがMemory機能を利用できるようになったことを明らかにした。Memory機能を使うと、ユーザーから提供された知見や、その後の回答の生成に役立つ可能性がある情報を、このチャットボットが記憶できるようになる。 Memory is now available to all ChatGPT Plus users. Using Memory is easy: just start a new chat and tell C

                                                    OpenAI、会話を記憶できる機能を「ChatGPT Plus」ユーザーに提供開始
                                                  • GitHub - openai/openai-assistants-quickstart: OpenAI Assistants API quickstart with Next.js.

                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                      GitHub - openai/openai-assistants-quickstart: OpenAI Assistants API quickstart with Next.js.
                                                    • 【風吹けば名無し】GPT-4o が獲得した日本語の語彙を調べる

                                                      昨日公開された GPT-4o は性能だけでなく処理速度の点からも注目を集めています。その速度に寄与しているのは、モデルの処理速度の改善だけでなく、日本語処理の改善も大きく関わっていると考えられます。 実際、OpenAIのサイトによれば、日本語は平均して 1.4 倍の効率で(1.4倍少ないトークンで)表せるようになったとされています。 これは、GPT-4o が GPT-4 に比べて日本語をより 語彙 (vocabulary) に含むようになったからです。語彙とは LLM における自然言語の処理の最小単位で、1つの語彙が1つの数値トークンに変換され、それがモデルに突っ込まれるという仕組みです。 ところで、GPT-4o では 『風吹けば名無し』 という文字列を 1 つの語彙として扱うのをご存知でしょうか。 このツイートで紹介されているように、GPT-4o では、ネットで多数出現するこういったフレ

                                                        【風吹けば名無し】GPT-4o が獲得した日本語の語彙を調べる
                                                      • OpenAIがChatGPTのモデル仕様を公開、「性的な話題はNGだが科学的な文脈ならOK」「犯罪の助長はNGだが犯罪防止のための情報提供はOK」などChatGPTの応答ルールが盛りだくさん

                                                        ChatGPTおよびOpenAI APIのモデル仕様が2024年5月8日(水)に公開されました。モデル仕様にはChatGPTおよびOpenAI APIの「望ましい動作」と「望ましくない動作」が記されており、OpenAIがどのような意図でChatGPTの応答を調整しているのかが分かるようになっています。 Model Spec (2024/05/08) https://cdn.openai.com/spec/model-spec-2024-05-08.html Introducing the Model Spec | OpenAI https://openai.com/index/introducing-the-model-spec/ ChatGPTを使っていると、「その質問には応答できません」といったように質問への返答を拒否されることがあります。新たに公開されたモデル仕様には質問の種類に応じ

                                                          OpenAIがChatGPTのモデル仕様を公開、「性的な話題はNGだが科学的な文脈ならOK」「犯罪の助長はNGだが犯罪防止のための情報提供はOK」などChatGPTの応答ルールが盛りだくさん
                                                        • 「ChatGPT」、専門家並みのデータ分析に対応、Pythonのコードを書き、グラフを作成、内容を把握して回答も/OpenAIが近日リリース、「GPT-4o」を活用、OneDrive/Google ドライブのファイルも直接扱える

                                                            「ChatGPT」、専門家並みのデータ分析に対応、Pythonのコードを書き、グラフを作成、内容を把握して回答も/OpenAIが近日リリース、「GPT-4o」を活用、OneDrive/Google ドライブのファイルも直接扱える
                                                          • 基本概念から理解するAzure AI Search - Azure OpenAI Serviceとの連携まで - 電通総研 テックブログ

                                                            こんにちは。XI 本部AIトランスフォーメーションセンター所属の山田です。 先日、部内の勉強会でAzure AI Searchについて紹介したので、テックブログでもその内容を紹介したいと思います。 Azure AI Searchとは? Azure AI Searchに保存されるデータに関する用語と概念 Azure AI Searchのスケーラビリティに関する用語と概念 Azure AI Searchでサポートされる検索の仕組み 全文検索について Azure AI Searchのアナライザー ベクトル検索について ベクトルの近傍検索アルゴリズム ハイブリッド検索 検索インデックスのスキーマ設計 検索インデックスにドキュメントを追加する方法 Pushモデル Pushモデルを利用する場合のアーキテクチャの例 Pullモデル Pullモデルを利用する場合のアーキテクチャの例 インデクサーの計算リソ

                                                              基本概念から理解するAzure AI Search - Azure OpenAI Serviceとの連携まで - 電通総研 テックブログ
                                                            • OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞

                                                              【シリコンバレー=渡辺直樹】対話型AI(人工知能)「Chat(チャット)GPT」を手がける米新興企業のオープンAIは13日、新型AI「GPT-4o(フォーオー)」を開発したと発表した。従来に比べて処理スピードを2倍に高速化した一方、運用コストを半減した。声で話しかけると、ヒトと同じ反応速度で会話ができる。弱点だった反応の遅延を克服し、AIの活用がさらに広がりそうだ。生成AIはオープンAI以外の

                                                                OpenAIが「GPT-4o」発表、2倍高速に 人の反応速度で会話 - 日本経済新聞
                                                              • サム・アルトマンが語った スマホ超えAIツールの姿 「人生を完全に把握」

                                                                Sam Altman says helpful agents are poised to become AI’s killer function サム・アルトマンが語った スマホ超えAIツールの姿 「人生を完全に把握」 MITテクノロジーレビューの取材に応じたオープンAIのサム・アルトマンCEOは、あらゆる面で個人を支援するAIのビジョンを語った。アルトマンCEOが「超優秀な同僚」と表現するAIは、スマホ以上に日常生活に深く組み込まれるようになるという。 by James O'Donnell2024.05.08 28 11 オープンAI(OpenAI)のサム・アルトマンCEO(最高経営責任者)への短いインタビューの中で、彼の世界観がより鮮明に映し出された瞬間があった。一つ目は、アルトマンCEOが私のアイフォーンSE(一般にあまり好まれていないホームボタン付きのもの)を指差して、「それは最高

                                                                  サム・アルトマンが語った スマホ超えAIツールの姿 「人生を完全に把握」
                                                                • OpenAI、高度AIの安全対策チーム解消 事業拡大優先か - 日本経済新聞

                                                                  【シリコンバレー=山田遼太郎】米新興企業オープンAIが将来の高度な人工知能(AI)の実現に備えた安全対策のチームを解消したことが17日、明らかになった。退社した元幹部は新技術やサービスの導入を急ぐ同社の方針を批判する。生成AIのリーダー企業は安全性と事業拡大スピードのバランスを巡って揺れている。高度AI制御の研究チームを解散「スーパーアライメント」と呼ぶチームを事実上解散したと複数の米メディ

                                                                    OpenAI、高度AIの安全対策チーム解消 事業拡大優先か - 日本経済新聞
                                                                  • アップル、iPhoneへのChatGPT搭載でオープンAIとの合意に近づく

                                                                    米アップルが対話型人工知能(AI)「ChatGPT」を開発した米オープンAIの技術をiPhoneに採用することで合意に近づいている。事情に詳しい複数の関係者が明らかにした。自社デバイスに人工知能(AI)機能を付加する広範な取り組みの一環だという。 非公開情報だとして、これら関係者が匿名で明らかにしたところでは、両社はアップルの次期iPhone用基本ソフト(OS)「iOS 18」へのChatGPT機能の統合に向け合意条件を最終調整している。アップルはまた、アルファベット傘下のグーグルと同社のチャットボット「Gemini」のライセンスについて協議中。いずれの交渉も合意に至っていない。 アップルとオープンAIの合意がまとまれば、アップルは来月発表する予定の新たなAI機能に人気の高いChatGPTを含めることができる。ブルームバーグは4月、両社の協議が再開されたと報じた。ただ、すぐに合意が発表され

                                                                      アップル、iPhoneへのChatGPT搭載でオープンAIとの合意に近づく
                                                                    • 謎の生成AI「gpt2」登場で騒然 次世代のGPT? アルトマンCEOも言及

                                                                      生成AIブームの火付け役となった「ChatGPT」を提供する米OpenAIは、2023年3月に高性能な大規模言語モデル(LLM)「GPT-4」を提供して以来、次の高性能モデルについて沈黙を守り続けている。そんな中、LLMを比較できるWebサービス上にOpenAIのものらしき謎の高性能なLLMが現れた。同社のサム・アルトマンCEOも言及しており、OpenAIが関連している可能性も少なくなさそうだ。 米カリフォルニア大学バークレー校の研究室が運営するプロジェクト「LMSYS Org」(The Large Model Systems Organization:大規模モデルシステム機関)で公開しているWebサービス「Chatbot Arena」の中に、「gpt2-chatbot」というモデルが突如現れ、4月29日深夜(日本時間、以下同様)から話題になり始めている。 記事執筆時点の30日午後5時現在

                                                                        謎の生成AI「gpt2」登場で騒然 次世代のGPT? アルトマンCEOも言及
                                                                      • 人間に近づいた「GPT-4o」3つの進化のポイント

                                                                        「私にとって魔法のようだ」ーー。サム・アルトマンCEOがそう予告していた新たなサービスがベールを脱いだ。 アメリカのOpenAIは5月13日、ChatGPTから使える新たな生成AIモデル「GPT-4o(フォー・オー)」を発表した。このAIの「知能」はこれまでのGPT-4と基本的に同じだが、応答時間を大幅に短縮するなど「使い易さ」で進化したという。 有料のGPT-4とは対照的にGPT-4oは無料ユーザーでも利用できるが、時間当たりの利用回数などが有料ユーザーに比べて制限される。無料化によってなるべく多数の利用者に使ってもらうことでChatGPTのユーザーベースを拡大し、飛躍的な進化が期待される次世代モデル「GPT-5」(まず間違いなく有料化される)のリリースに向けて足場を固めようとしている意図がうかがえる。 本稿では3つの「進化のポイント」に解説したい。 従来より「自然な会話」ができるように

                                                                          人間に近づいた「GPT-4o」3つの進化のポイント
                                                                        • OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に

                                                                          小林 優多郎 [Tech Insider 編集チーフ] May. 14, 2024, 08:30 AM テックニュース 17,073 OpenAIは5月13日(現地時間)、新しい対話型生成AIサービス「GPT-4o」を発表した。 GPT-4oは有料版「ChatGPT Plus」や「ChatGPT Team」のユーザー向けに展開を開始しており、今後エンタープライズ向けにも提供予定。 無料版ChatGPTユーザーに対しても、1日で利用できるメッセージの数に制限をつけつつも展開する(OpenAIによるとPlusユーザーのメッセージ送信可能数は無料版の5倍でTeamsやエンタープライズ版はそれ以上)。 GPT-4oとは何なのか。また、そのGPT-4oの上で走らせたOpenAIの驚きのデモの様子を振り返りつつ解説しよう。

                                                                            OpenAIの「GPT-4o」はまるで「目を手に入れたAI」。ChatGPT無料版でも利用可能に
                                                                          • オープンAI、13日に新プロダクト発表-「GPT-5」でも検索でもない

                                                                            対話型人工知能(AI)「ChatGPT」を開発した米オープンAIは、米太平洋時間13日午前10時(日本時間14日午前2時)にライブ配信を通じて製品アップデートを発表するとウェブサイトに発表した。AI界の巨人がどのような大型リリースを計画しているのか、臆測を呼んでいる。 オープンAIはこのイベントで検索プロダクトを発表することはないとしている。アルファベット傘下のグーグルとAI検索スタートアップ(新興企業)のパープレキシティに対抗する機能を、オープンAIは開発中だ。 発表は人気の「ChatGPT(チャットGPT)」とそのAIモデルのアップデートが中心になる。GPT-4のリリースからすでに1年余りが経過。新しいモデルの発表が待望されている。同社はしかし、このイベントはシリーズ最新GPT-5のローンチではないという。 サム・アルトマン最高経営責任者(CEO)は10日、ソーシャルメディア「X(旧ツ

                                                                              オープンAI、13日に新プロダクト発表-「GPT-5」でも検索でもない
                                                                            • 生成AI、那覇市はどう活用? 職員も思いつかなかった、AIが提案したアイデアとは

                                                                              2023年11月にあった那覇市長定例記者会見。沖縄の言葉で「はいさい ぐすーよー。ちゅーうがなびら(こんにちは皆さん。ご機嫌いかがでしょうか)」から始まった会見は、市の業務での生成AI本格導入に向けて「那覇市生成AI活用方針」を策定したというコメントを読み上げていた。「いっぺー にふぇーでーびる(ありがとうございました)」と締めたところで、知念覚市長がこう付け加えた。 「なお、このコメントもですね、生成AIによって下書きを作成し、職員が校正を行って作っております」 沖縄県内ではいち早く生成AI活用を導入した那覇市。同市DX推進室の長嶺伶生さんは「たたき台を手直しするだけで作れるので負担は少なくなっています」とそのメリットを挙げる。 住民の個人情報などデリケートな情報も多く扱う行政の現場。その利用にあたっては慎重に活用方針とガイドラインを作成し、日々の業務活用につなげている。行政が生成AIな

                                                                                生成AI、那覇市はどう活用? 職員も思いつかなかった、AIが提案したアイデアとは
                                                                              • Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。

                                                                                Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応しています。詳細は以下から。 OpenAIは現地時間2024年05月13日、反応速度を向上させ、より人間らしい対話が可能にな最新のAIモデル「GPT-4o」を発表しましたが、Mac用ChatGPTクライアント「MacGPT」が最新のバージョン3.21でGPT-4oに対応しています。 Added support for the new GPT-4o model which is twice as fast and two times cheaper! リリースノートより MacGPTはNaviでApple Design Awards 2022 ファイナリストに選出されたオランダのJordi Bruinさんが開発しているChatGPTクライアントで、ChatGPTのWebベースに加え、OpenAIのAPIを利用することでネイ

                                                                                  Mac用ChatGPTクライアント「MacGPT」がGPT-4oに対応。
                                                                                • GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita

                                                                                  回答の詳細は以下です。 GPT-4o 1回目 ハッピー数とは、各桁の数を2乗してその和を求めることを繰り返し、その結果が最終的に1になるような数のことを指します。それ以外はアンハッピー数と呼ばれます。 3904から3912までの数を順に調べていきましょう。 3904 3² + 9² + 0² + 4² = 9 + 81 + 0 + 16 = 106 1² + 0² + 6² = 1 + 0 + 36 = 37 3² + 7² = 9 + 49 = 58 5² + 8² = 25 + 64 = 89 8² + 9² = 64 + 81 = 145 1² + 4² + 5² = 1 + 16 + 25 = 42 4² + 2² = 16 + 4 = 20 2² + 0² = 4 + 0 = 4 4² = 16 1² + 6² = 1 + 36 = 37 (以下ループ) 3904はハッピー数では

                                                                                    GPT-4o と GPT-4 について数学的能力を Azure OpenAI Playground 上で検証してみた - Qiita