並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 1119件

新着順 人気順

LLMの検索結果81 - 120 件 / 1119件

  • LLMで自動運転車を動かしてみた話|aoshun7

    こんにちは、自動運転EVをつくるTuring(チューリング)株式会社で共同創業者CTOをやっている青木俊介です。 先日Turingは噂のLLM(Large Language Model:大規模言語モデル)で自動運転車を動かすプロジェクトを完遂させました。 上の動画にもあるように、今回開発したデモではユーザ(乗客)が音声で指示を出すと、LLMが裏で動き、自動運転車がユーザの指示に従って動いてくれます。LLMで実際の自動車が動いたのは世界初な気がします。 もちろんこのシステムで公道を走るわけではないのですが、我々Turingの開発思想的には非常に重要なデモでした。 この記事では「なぜTuringがLLMで自動運転車を動かしたのか」「実際どんな風にLLMで自動運転車が動いているのか」「Turingの開発体制の今後」について書いていこうと思います。 1. LLMと自動運転とTuring「LLMで自

      LLMで自動運転車を動かしてみた話|aoshun7
    • ローカルLLMの情報まとめ|npaka

      「ローカルLLM」の記事が増えてきたのでまとめました。 「Llama 2」ベースのローカルLLMについては、以下でまとめています。

        ローカルLLMの情報まとめ|npaka
      • 130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可)|ELYZA, Inc.

        130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可) 本記事のサマリーELYZA は「Llama 2 13B」をベースとした商用利用可能な日本語LLMである「ELYZA-japanese-Llama-2-13b」シリーズを一般公開しました。前回公開の 7B シリーズからベースモデルおよび学習データの大規模化を図ることで、既存のオープンな日本語LLMの中で最高性能、GPT-3.5 (text-davinci-003) も上回る性能となりました。また、推論の高速化を実現したチャット型デモを併せて公開しています。 はじめにこんにちは。ELYZAの研究開発チームの平川、佐々木、中村、堀江、サム、大葉です。 この度 ELYZA は、130億(13B)パラメータの「ELYZA-japanese-Llama-

          130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可)|ELYZA, Inc.
        • 推定1000万円以下のコストで開発され、国内最大・最高性能を達成した日本語LLM, Karakuri-LMの秘密

          推定1000万円以下のコストで開発され、国内最大・最高性能を達成した日本語LLM, Karakuri-LMの秘密 2024.02.18 Updated by Ryo Shimizu on February 18, 2024, 10:08 am JST 2024年1月。国内の生成AIコミュニティに激震が走った。 コンタクトセンター向けのチャットボット開発のパイオニアとして知られるカラクリ社が商用利用可能のオープンソースモデルとして公開したKarakuri-ln-70bの性能が高すぎると話題になったのだ。 多くの日本語LLMと同様に数学能力に関するスコアは低いが、物語を記述する能力、日本語の質問に日本語で答えたり、答えをプログラムで扱い易いJSON形式にしたりする能力がこれまでの国産LLMに比べて桁違いに高かったのである。 物語を記述する能力に関しては、一説によればGPT-4を凌駕するとも言わ

            推定1000万円以下のコストで開発され、国内最大・最高性能を達成した日本語LLM, Karakuri-LMの秘密
          • 外部データをRetrievalしてLLM活用する上での課題と対策案 - ABEJA Tech Blog

            はじめに ABEJAでデータサイエンティストをしている服部です。 今回はLLMで外部データを使うケースについてのお話をしたいと思います。 はじめに LLMと外部データの利用 RetrievalとLLM 0. (事前準備)参照したいテキストデータをDBに格納 1. ユーザの入力文とのテキスト類似度を計算して、関連テキストを抽出する(Retrieval) 2. 関連テキストをLLMのプロンプトに入れ込み、ユーザの入力文に回答する。 Retrieval時の課題 LangChainでの用意 Case1: それぞれの文章がRetrievalしにくい形で保存されている 対策案: ページ構造を意識した形で各文章を格納する 他の対策案 聞き方を明確にする 類似度を測るクエリ文章を置き換える 不要そうな文章をデータから削除する データ自体をLLMで整形し直す Case2: 未知の単語を含む 仮説: ニャオハ

              外部データをRetrievalしてLLM活用する上での課題と対策案 - ABEJA Tech Blog
            • CyberAgent社の日本語LLM OpenCALMの対話モデル用途のfinetune検証 - ACES エンジニアブログ

              こんにちは、ACESでアルゴリズムエンジニアとして働いている檜口です。最近はChatGPTを始めとする言語モデルの研究開発やプロダクト改善に取り組んでいます。 昨年末のChatGPTのリリース以降、大規模言語モデル(large language model, LLM)の社会実装が急速に進んできています。弊社でも商談解析AIツールACES MeetにLLMを組み込むなど、LLMの活用を広げています。こちらに関してはLLMを活用したAIまとめ機能リリースの裏側について過去記事を書いてありますのでご興味ある方はぜひご覧ください。 tech.acesinc.co.jp LLMはOpenAIのChatGPTが最も有名ですが、最近はオープンソースでモデルを開発する流れも活発になっています。特に、英語で学習したオープンソースモデルはMeta社のリリースしたLlamaを始めとして非常に強力なものがリリース

                CyberAgent社の日本語LLM OpenCALMの対話モデル用途のfinetune検証 - ACES エンジニアブログ
              • LLMマルチエージェントを俯瞰する

                社内のテックトークで紹介しました。

                  LLMマルチエージェントを俯瞰する
                • ソフトウェアセキュリティはAIの登場でどう変わるか - OWASP LLM Top 10

                  2024.2.17 微修正 2024.2.15 デブサミ2024きっかけでリバイス (OWASP LLM 1.1/祝AISI設立) 2023.10.24 追記・セクション明確化 2023.8.30 Q&A追加などupdate 2023.8.27 増補版 2023.8.26 初版:塩尻サイバーセキュリティ勉強会 2023 夏 ( 更新は、特別カスタマイズ版を除きスライドを上書き更新していきます) 岡田良太郎 オカダリョウタロウ OWASP Japan Lead アスタリスク・リサーチ Executive / Researcher ビジネス・ブレークスルー(BBT)大学講師 神戸デジタル・ラボ CSA The English version is available. Ask me. : How Software Security Will Change with the Rise of AI

                    ソフトウェアセキュリティはAIの登場でどう変わるか - OWASP LLM Top 10
                  • 「数千万円かかるコスト」と「山のような技術的課題」 開発者たちが語る、日本語LLMの現在地

                    基盤モデルの開発をしている中で苦労することは? 南野充則氏(以下、南野):では、ここからパネルディスカッションに移っていきたいと思います。最初は、こちら側でお題を用意しています。大きなトピックとしては、基盤モデルの開発とコスト、基盤モデルにおけるアカデミアとビジネスの観点でどのような考え方をされているのかというところ。 あとは、日本語特化LLMの意義と展望といったところですね。大きなトピックとして揃えていますが、今「Slido」でのご質問もいただいていますので、適宜Slidoも拾いながらやっていければと思います。Slidoは、このQRコードからみなさんに質問していただければと思います。 さっそくですが、トピック1に移っていきたいと思います。「基盤モデルの開発をしている中で苦労されることは?」というところで、これはまず垣内さんからお願いしたいです。この基盤モデルを作っている中でどんな苦労があ

                      「数千万円かかるコスト」と「山のような技術的課題」 開発者たちが語る、日本語LLMの現在地
                    • LLM の LoRA / RLHF によるファインチューニング用のツールキットまとめ |npaka

                      「LLM」の「LoRA」「RLHF」によるファインチューニング用のツールキットをまとめました。 1. PEFT「PEFT」は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。 現在サポートしている手法は、次の4つです。 ・LoRA ・Prefix Tuning ・P-Tuning ・Prompt Tuning ◎ LLaMA + LoRA 「Alpaca-LoRA」は、「LLaMA」に「LoRA」を適用して「Alpaca」の結果を再現するためのコードが含まれているリポジトリです。「finetune.py」がLoRAの参考になります。 ・tloen/alpaca-lora ◎ RedPajama-INCITE + LoRA 「INCITE-LoRA」は、「RedPajama-INCITE」に「LoRA」を適用する

                        LLM の LoRA / RLHF によるファインチューニング用のツールキットまとめ |npaka
                      • 「LLM」を活用したプロダクト開発に必要な能力とは何か “機械学習の民主化”でますます注目される「MLPdM」の重要性

                        大規模言語モデル(LLM)を、実際にプロダクトや実務に役立つかたちで利用している各社が見た使いどころや、実践の上での工夫について学び合うためのイベント第二弾。今回のテーマは「大規模言語モデルがつくる新しい顧客体験」。ここで登壇したのは、株式会社LayerXの松村優也氏。機械学習の民主化とMLPdMの重要性について発表しました。 LayerX社・機械学習チームのマネージャーの松村優也氏 松村優也氏:それでは、LayerXの松村優也が「機械学習エンジニアから見るプロダクト開発におけるLLM」を副題として、「機械学習の民主化とMLPdMの重要性」というタイトルで10分お話しします。お願いします。 簡単な自己紹介ですが、あらためて、松村です。(スライドの)右上の黒いアイコンでよくSNSをやっています。「Twitter」などのIDはご覧のとおりです。 バックグラウンド的には、もともと京都大学で情報検

                          「LLM」を活用したプロダクト開発に必要な能力とは何か “機械学習の民主化”でますます注目される「MLPdM」の重要性
                        • 1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」

                          徳永拓之(LeapMind(株)) 1bit LLMの時代が来る? 2024 年2 月,The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits¹⁾ というタイトルの論文がarXiv上で公開され,にわかに話題となりました.“1.58 Bits” という表現はあまりなじみがありませんが,log₂(3) = 1.58 . . . ということで,パラメーターを三値にした場合の情報量を示しているようです.この論文(以下b1.58 論文とする)は,同じ著者グループによる文献2)を少し拡張したもので,大規模言語モデル(LLM)の効率化についての研究です. 本稿の前半ではこれらの論文の主張を解説し,後半ではその主張の妥当性について検討します. なお,これらの2本の論文は,本稿執筆時点では,査読を経たものではありませんのでご注意くだ

                            1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」
                          • 注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z

                            国立情報学研究所が作ったLLM-JP 13Bが公開されていたので早速試してみた。色々なモデルが公開されているが、全部盛りっぽい 「llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0」を試す。 マシンはもちろんドスパラ製Memeplexマシン(A6000x2)だ。 import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0") model = AutoModelForCausalLM.from_pretrained("llm-jp/llm-jp-13b

                              注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z
                            • AI(LLM)についてまだみんなが知らない8つの事実(論文:Eight Things to Know about Large Language Modelsについて)

                              いかにも海外の煽り記事みたいなタイトルを付けてしまったが、おおむねそういう感じの内容の論文が発表されて、興味深かったので今回はそれについて書いてみたい。 最近、「AGIが人類を滅亡させる!」みたいなAI人類滅亡説がにわかに広がっているらしい。 これの言い出しっぺみたいな人は、ユドコウスキー氏という方らしいが、彼は何十年も前からAI脅威論を言っていたらしい。そういう人もいるとは思うが、最近はそれを真に受けちゃう人が増えてるらしい。ChatGPTの実力に驚いた人が増えたからだろうか。 ホワイトハウスでFox Newsの記者が「AIが人類を滅亡させるってホントですか?」と質問しちゃうというような、パニック映画さながらの出来事まで起きている。これはエイプリルフールではない。 ホワイトハウスでFox Newsの記者が「機械知能研究所の専門家がAI開発を無期限に停止しないと文字通り地球上のすべての人間

                                AI(LLM)についてまだみんなが知らない8つの事実(論文:Eight Things to Know about Large Language Modelsについて)
                              • ChatGPT/LLM・AIについて資料をまとめた (講演90分Ver) | IIJ Engineers Blog

                                90分でChatGPTやLLMについてお話ししました 世は第三次人工知能ブームまっただ中です。IIJでも九州支社のとみがITインフラ屋の視点から出発したAI探求の模様をこのblogに寄稿していますし、他にも社内あちこちでAIに関する実験や遊びが行なわれています。 そんな中、ご縁があって株式会社STNet様主催、スマートシティたかまつ推進協議会様後援のセミナーにて、ChatGPTを含めたAIの最近の動向について講演する機会をいただきました。セミナーでは90分でChatGPTの紹介から、LLM(大規模言語モデル)のごく基本的な構造、そして「ChatGPT・LLMを業務に利用する」ということについて、私見を交えてお話をいたしました。主催者様が力を入れて紹介してくださった事もあり、思いのほかたくさんの方にお話を聞いていただくことができました。(ご参加いただいたみなさんありがとうございます) そのと

                                  ChatGPT/LLM・AIについて資料をまとめた (講演90分Ver) | IIJ Engineers Blog
                                • LLM校正CIを自社のブログに導入してみた - NTT Communications Engineers' Blog

                                  マネージド&セキュリティサービス部サービスプラットフォーム部門の田中です。 2023年度の下期にダブルワークという社内施策で、イノベーションセンター生成AIチームに参加しました。 その取り組みとして、本ブログの記事データを管理している GitHub リポジトリに LLM (大規模言語モデル) の1つである GPT-4 を用いた校正CIを導入してみました。 適切なプロンプトを得るための試行錯誤や、この記事自体を校正させてみた結果をお伝えします。 目次 目次 背景 LLM校正CIの詳細 プロンプトの試行錯誤 この記事の校正結果 おわりに 背景 本ブログ記事のデータ管理やレビューには GitHub を利用しています。 投稿者は記事を執筆した後 PR (Pull Request) を出し、レビュアーが PRコメントで記事の修正を提案し、推敲していきます (なお、GitHubを活用した記事公開プロセ

                                    LLM校正CIを自社のブログに導入してみた - NTT Communications Engineers' Blog
                                  • Building LLM applications for production

                                    [Hacker News discussion, LinkedIn discussion, Twitter thread] A question that I’ve been asked a lot recently is how large language models (LLMs) will change machine learning workflows. After working with several companies who are working with LLM applications and personally going down a rabbit hole building my applications, I realized two things: It’s easy to make something cool with LLMs, but ver

                                      Building LLM applications for production
                                    • NVIDIA、1EFLOPSの性能で生成AI/LLM処理を加速する「DGX GH200」

                                        NVIDIA、1EFLOPSの性能で生成AI/LLM処理を加速する「DGX GH200」
                                      • LLMのファインチューニングで事実の学習ができないのは本当か?ちょっと実験してみた

                                        三行要約 LLM のファインチューニングでは事実の学習ができないという話があったので、事実の学習の例として、シェイクスピアのRomeoをBobに置き換える実験を行った 実験では、訓練対象とする層による結果の違いを確認した。アテンション層のみを訓練した場合は、Bobへの置き換えはできなかった。一方、全結合層を含めて訓練した場合は、学習率を調整するとBobへの置き換えができた ファインチューニングが事実の学習に向いているかはさておき、工夫次第でファインチューニングも事実の学習に利用できる可能性はある 背景 先月 ChatGPT(GPT-3.5 Turbo) のファインチューニングがリリースされました。いろいろな方が試されて、うまくいった、いかなかったという話がちらほらありました。例えば以下の記事では、一晩試してみた程度では、ChatGPTに最新の知識を教え込む目的での Fine-tuning

                                          LLMのファインチューニングで事実の学習ができないのは本当か?ちょっと実験してみた
                                        • Zodスキーマでプロンプト生成を行い構造化データを自由自在に扱えて、LLMプロダクト開発が圧倒的に効率化した話 - Algomatic Tech Blog

                                          最近はAIエンジニアを名乗ってるerukitiです。フロントエンドもバックエンドも、LLMを触るあれこれもやってるので、「AIエンジニア」くらいを名乗るとちょうどよさそうだなと思ってます。いずれLLM自体の開発なんかもやってるかもしれません。 LLMプロダクトを開発していると、構造化データを作りたいのに、Anthropic ClaudeのAPIにはJSONモードが無いことや、なんならJSONモードやfunction callingを使っても、データが正しい形式に従ってることは保証しがたい、みたいな自体に遭遇することがあります。 JSONが出力できたとしても、構造化データをうまく吐き出させるのは難しいものです。文字列を出力させたいけど、複数あるときは、配列なのか、それともカンマ区切りなのか?項目がオプショナルの場合はどうするか?項目が存在しない、空文字や 0 や undefined や nu

                                            Zodスキーマでプロンプト生成を行い構造化データを自由自在に扱えて、LLMプロダクト開発が圧倒的に効率化した話 - Algomatic Tech Blog
                                          • Meta、無料で商用可の新LLM「Llama 3」、ほぼすべてのクラウドでアクセス可能に

                                            米Metaは4月18日(現地時間)、オープンソースのLLMの最新版「Llama 3」を発表した。80億パラメータと700億パラメータの2モデルで、いずれもほぼすべての主要クラウドサービス(AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM、Snowflake)で間もなく利用可能になる。 昨年リリースの先代「Llama 2」にも700億パラメータモデルはあったが、Llama 3は4000億パラメータの高密度モデル(こちらはまだ公開されていない)のトレーニングも継続中だとマーク・ザッカーバーグCEOは語った。 トレーニングデータセットは、Llama 2よりも7倍大きく、4倍のコードが含まれている。英語以外での利用に備えるため、データセットの5%以上が非英語データで構成されて

                                              Meta、無料で商用可の新LLM「Llama 3」、ほぼすべてのクラウドでアクセス可能に
                                            • LLMプロダクト開発とはどういうものなのか?|erukiti

                                              LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由という記事を書きました。 mutaguchiさんのツイートを見て、LLMプロダクトの開発とはどういうものなのかを知らない人も多いのかなと気づいたので、そこらへんを記事として書いてみます。 https://t.co/4WvjuuoGnC 「LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由」の記事のはてブコメント見てたんだけど、ほとんど理解されてなかったのが興味深い。 ・プロプライエタリなLLMでは、ランニングコストが嵩み、これを利用したサービスは成立しづらい… — mutaguchi (@mutaguchi) April 24, 2024 商用LLM APIとローカルLLMって使い方が全然違う気がしてる。 商用LLM APIって、機微情報を送らないこと、規約違反テキストを送らないこ

                                                LLMプロダクト開発とはどういうものなのか?|erukiti
                                              • Stability AI、ノートPCでも動作する大規模言語モデル(LLM)を発表

                                                Stabilty.AIは10月3日、ノートPCなど計算能力のあまり高くないPCでも動作するように設計されたコンパクトな大規模言語モデル(LLM)「Stable LM 3B」のリリースを発表した。ライセンスは商用利用も可能なオープンソースの「CC-By-SA 4.0」となっている。 軽量・高速にもかかわらず高度な自然言語処理が可能 2023年4月20日に最初のバージョン(3Bおよび7Bパラメーター)が発表された同社のLLM「Stable LM」シリーズだが、今回のリリースは高速な実行速度を維持しながら、テキストを生成する能力が大幅に向上しているという。 高品質なデータで複数回学習させた結果、30億パラメータ(業界で通常使用されるのは70億~700億パラメータ)にもかかわらず、一般的な自然言語処理ベンチマーク性能も向上しており、従来の30億パラメーター言語モデルはもちろん、70億パラメーター規

                                                  Stability AI、ノートPCでも動作する大規模言語モデル(LLM)を発表
                                                • GPT-4、Bard、Claude2などの異なるLLMが円卓を囲み議論した結果の回答は品質が高いとの検証報告。円卓ツールも公開 | AIDB

                                                  異種LLM同士の議論 米ノースカロライナ大学の研究者らは、異なる種類の大規模言語モデル(LLM)同士に議論させるというアプローチを採りました。 このアイデアの背後には、異なるモデルがそれぞれの強みと弱みを持っているという認識があります。例えば、GPT-4は一般的なテキスト生成に優れている一方で、Bardは物語生成に特化しています。これらのモデルを組み合わせることで、より高度な推論が可能になると考えられています。 研究者らは、複数の異なるLLM(GPT-4、Bard、Claude2など)を円卓会議のような形で議論させるアイデアを形にしました。各モデルは独自の視点と推論能力を持ち寄り、最終的な回答や結論を出す過程が検証されました。 異種LLMs円卓会議ツール 研究者らはただ実験を行って報告するだけでなく、LLM同士に議論させて答えを提出させるプロセスを自動化するツールも提供しています。このツー

                                                    GPT-4、Bard、Claude2などの異なるLLMが円卓を囲み議論した結果の回答は品質が高いとの検証報告。円卓ツールも公開 | AIDB
                                                  • rinnaが日本語特化LLM公開 36億パラメータ

                                                      rinnaが日本語特化LLM公開 36億パラメータ
                                                    • LLMは生物学で捉えられるものかもしれない

                                                      chatGPTの登場により、私たちは改めてAIとは何か、意識とは、言語とは、思考とはどのようなものなのかを考えさせられることになった。この疑問が難題となるのは、LLMが「よくわからないもの」であるからでもある。機械学習の研究者である田口善弘氏は、LLMを生物学的に捉えられないかと考えた――。

                                                        LLMは生物学で捉えられるものかもしれない
                                                      • 僅か2.3GBで日本語可能な超高性能ローカルLLMのPhi-3 MINIをllama.cppとCPUで動かしてみた。スマホでも可。従来のコンパクトLLMと比較して超越した性能で未来を感じさせるMicroSoft寄付ありがとう

                                                        Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224 昨日MicroSoftからリリースしたローカルLLMモデルのPhi-3 mini 4k Q4をllama.cppのサーバ版を動かしてみた。こいつ2.32GBしかないくせに日本語しゃべれるぞ。今までとは桁違いの性能なんですけど・・・ ./build/bin/server -m ../Phi-3-mini-4k-instruct-q4.gguf -n 128 huggingface.co/microsoft/Phi-… pic.twitter.com/DTmUmeh7JE 2024-04-24 22:46:51

                                                          僅か2.3GBで日本語可能な超高性能ローカルLLMのPhi-3 MINIをllama.cppとCPUで動かしてみた。スマホでも可。従来のコンパクトLLMと比較して超越した性能で未来を感じさせるMicroSoft寄付ありがとう
                                                        • 日本語に強く、たった130億パラメーター NECが作った国産LLMの価値 (1/2)

                                                          NECは、130億パラメーターという軽量化を実現した独自の日本語大規模言語モデル(LLM)を発表した。NEC Corporate EVP兼CTOの西原基夫氏は、「世界トップクラスの日本語性能を有する、軽量なLLMを開発することに成功した。すでにNEC社内で利用を開始しており、文書作成や社内システム開発におけるソースコード作成業務など、さまざまな作業の効率化に応用している」とアピールした。 構想4年、開発2年で全社を挙げて仕上げた独自LLM ChatGPTをはじめとする生成AIは、急速な勢いで活用が進んでいるが、既存のLLMのほとんどは英語を中心に学習しており、高い日本語性能を有しつつ、各業種の業務で活用するためのカスタマイズが可能なLLMはほぼない状況にある。NECでは、自社で独自のLLMを開発することにより、日本の企業における生成AIのビジネス活用をより加速させ、企業の生産性向上に貢献す

                                                            日本語に強く、たった130億パラメーター NECが作った国産LLMの価値 (1/2)
                                                          • LLM を組み込んだチャットアプリケーションを写経しながら実装できる「ChatGPT/LangChain によるチャットシステム構築[実践]入門」を読んだ - kakakakakku blog

                                                            2023年10月18日に出版される新著「ChatGPT/LangChain によるチャットシステム構築[実践]入門」を読んだ & 写経した📕 読者層的には「ChatGPT って最近よく聞くしたまーに使うこともあるけど LangChain って何なのー?」という人や「LLM (Large Language Model) をアプリケーションに組み込むなんて考えたこともなかったけどできるのー?」と感じるような人に特におすすめできるかなーと💡本書を読みながら写経すると,難しいことは考えずに ChatGPT のように LLM を組み込んだアプリケーションをあっという間に構築できてしまって,とにかくワクワクして楽しめる一冊だった❗️ ChatGPT/LangChainによるチャットシステム構築[実践]入門 作者:吉田 真吾,大嶋 勇樹技術評論社Amazon 著者の一人 id:yoshidashin

                                                              LLM を組み込んだチャットアプリケーションを写経しながら実装できる「ChatGPT/LangChain によるチャットシステム構築[実践]入門」を読んだ - kakakakakku blog
                                                            • ゼロからLLMつくりたくなったときに参考になりそうなサイト

                                                              はじめに 「ゼロからLLMつくりたいなー」と思っていますが、なかなか時間がとれないので、いざというとき(?)のために、参考になりそうなサイトをまとめておきます。 個人的な備忘録です。まだ全然作れていないので、どれが良いという評価もできません。 NLP2024チュートリアル 良さそう。 NLP2024-チュートリアル3-作って学ぶ 日本語大規模言語モデル Neural Networks: Zero to Hero Andrej Karpathyさんの動画。英語ですが、すごい良さそう Llama Llamaの情報 GENIAC その他 LLaVA(画像系) 環境構築 モデルマージ まとめ LLMに限らず、何かをゼロから小さく作ってみるのは、回り道のようで理解を深める最短経路と思っています。すぐ効果があるようなものではないですが、こういうのはまとめて取り組んでいきたいですね。 日本語の良い書籍が

                                                                ゼロからLLMつくりたくなったときに参考になりそうなサイト
                                                              • ラズパイ4でも動かせるローカルLLM用省メモリ小型高性能Phi-2モデルのライセンスをMicroSoftがMITライセンスに変更。これで自由に配布・改造・商用利用が出来ます。llamafile版も公開されました。もちろんLinuxでもNetBSDでも動きます

                                                                Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き @kapper1224 オープンソースのローカルLLM界隈がPhi-2ライセンスMIT変更で大騒ぎしていますな。 Phi-2改造版も密かにあちこちであります。 ちなみにGGUF版はこちらからダウンロード出来ますし huggingface.co/kroonen/phi-2-… Phi-2 llamafile版もこちらからダウンロードできます huggingface.co/jartine/phi-2-… 2024-01-06 20:15:36 CodingNerds COG @CodingnerdsCog @Microsoft finally changed the license for their small #LLM phi-2 to MIT! 🚀 >> Phi-2 is a 2.7 billion parameter

                                                                  ラズパイ4でも動かせるローカルLLM用省メモリ小型高性能Phi-2モデルのライセンスをMicroSoftがMITライセンスに変更。これで自由に配布・改造・商用利用が出来ます。llamafile版も公開されました。もちろんLinuxでもNetBSDでも動きます
                                                                • Microsoft が LLM をアプリ開発に統合するための OSS「Semantic Kernel」を発表 - Qiita

                                                                  Semantic Kernel (SK) は Microsoft が OSS として発表した、大規模言語モデル (LLM) をアプリにすばやく簡単に統合できる SDK です。SK は従来のプログラミング言語と最新のLLM AI "プロンプト" を簡単に組み合わせることができ、テンプレート化、チェーン化、埋め込みベースのメモリー、およびプランニング機能を備えています。 機能的には、LangChain や LlamaIndex に似たような機能を持っているライブラリです。現状は C# 向けにリリースされています。4/17 に Python 版 もリリースとなりました。ただし機能は部分的な実装である点にご注意ください。(FEATURE MATRIX) 6/23 Semantic Kernel が Copilot stack との連携を明確化しプラグインエコシステムと統合 Semantic Ker

                                                                    Microsoft が LLM をアプリ開発に統合するための OSS「Semantic Kernel」を発表 - Qiita
                                                                  • 【Calm2 7b】サイバーエージェントの最新LLMが優秀すぎたので、ChatGPTと比較レビューしてみた | WEEL

                                                                    Calm2-7b(CyberAgentLM2-7B)は、サイバーエージェントが公開した最新の日本語LLMです。 このモデルは、既存のLLMをベースにするのではなく、1から独自に構築されており、チューニングモデルではなんと32,000トークンの入出力に対応しています。 GPT-4に迫る量のトークンに対応しているのはすごいですよね! 今回は、Calm2-7bの概要や使ってみた感想をお伝えします。 是非最後までご覧ください! なお弊社では、生成AIの開発について1時間無料相談を承っています。こちらからお気軽にご相談ください。 →無料相談で話を聞いてみる Calm2-7bの概要 Calm2-7bは、サイバーエージェント社が2023年11月2日に公開した最新の日本語LLMです。 このモデルは、ここ最近の日本語LLM開発のトレンドになっている、既存のLLMをベースに継続事前学習を適用して構築する方法で

                                                                      【Calm2 7b】サイバーエージェントの最新LLMが優秀すぎたので、ChatGPTと比較レビューしてみた | WEEL
                                                                    • NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発

                                                                      NECは、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 本LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的なモデル、いわゆるファウンデーションモデル(注1)です。独自の工夫により高い性能を実現しつつパラメータ数を130億に抑えた本LLMは、消費電力を抑制するだけでなく、軽量・高速のためクラウド/オンプレミス環境での運用が可能となります。性能面では、日本語の知識量や文書読解力を計測する日本語の一般的なベンチマーク(注2)で、世界トップクラスの日本語能力を実現しています。 NECでは本LLMをすでに社内業務で活用を始めており、文書作成や社内システム開発におけるソースコード作成業務など、様々な作業の効率化にも応用しています。 昨今、「ChatGPT」を始めとする生成AIが世界的

                                                                        NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発
                                                                      • ローカルLLMはこーやって使うの💢

                                                                        making-the-most-of-local-llms.ipynb Sorry, something went wrong. Reload? Sorry, we cannot display this file. Sorry, this file is invalid so it cannot be displayed.

                                                                          ローカルLLMはこーやって使うの💢
                                                                        • 社内向けLLM活用プロダクト LayerX Biz Boostの紹介! - LayerX エンジニアブログ

                                                                          こんにちは、バクラク事業部 MLエンジニアの白井(@yakipudding)です。 7月はLayerX エンジニアブログを活発にする期間でして、ぜひ左記のリンクを辿って気になる記事を見ていただけるとありがたいです! この記事は社内向けのLLM活用プロダクト LayerX Biz Boost について紹介します! What’s LayerX Biz Boost? LayerX Biz Boostは、LLMを活用した業務効率化機能を搭載した社内向けのプロダクトです。 LLMの波に乗って爆速PoCを行うことで、多数の機能がLayerX BizBoostに搭載されてきました!具体的には、 社内向けChatGPT セールスチーム向けの商談の文字起こし&要約 セキュリティチェックシート一次回答 など多数の機能があります!(ここで紹介していないものもあります!) 社内向けChatGPT APIを使用して

                                                                            社内向けLLM活用プロダクト LayerX Biz Boostの紹介! - LayerX エンジニアブログ
                                                                          • LLMエージェントのデザインパターン、Agentic Design Patternsを理解する

                                                                            「Agentic Design Patterns」と呼ばれるLLMベースのAIエージェント(以下、LLMエージェント)の4つのデザインパターンについて紹介します。 まず、「Agenticワークフロー」について説明し、続いて4つのデザインパターンを説明します (Part5の前に公開してしまったので、後追いで更新予定です) Agentic Design Patterns Part 1 Agentic Design Patterns Part 2, Reflection Agentic Design Patterns Part 3, Tool Use Agentic Design Patterns Part 4, Planning Agentic Design Patterns Part 5, Multi-Agent Collaboration 動画もあります。 LLMエージェントについての説明

                                                                              LLMエージェントのデザインパターン、Agentic Design Patternsを理解する
                                                                            • LLM開発のフロー | フューチャー技術ブログ

                                                                              はじめにこんにちは、SAIG/MLOpsチームでアルバイトをしている板野・平野です。 今回は、昨今注目されている大規模言語モデル(LLM)の開発においてMLOpsチームがやるべきことを考えるため、まずはLLM開発の流れを調査・整理しました。 本記事はその内容を「LLM開発のフロー」という題目でまとめたものです。LLMを本番運用するときに考慮すべきこと、LLM開発・運用を支援するサービスやツール・LLMシステムの構成例などについては、「LLM開発でMLOpsチームがやるべきこと」と題して別記事でご紹介していますので、ぜひ併せてご覧ください。 ここでのLLM開発とは、「LLM自体の開発」および「LLMを活用したシステム開発」の両方を含みます。また、「LLM自体の開発」は学習フェーズ、「LLMを活用したシステム開発」は推論フェーズ、として記載しています。 本記事ではLLM開発における各フェーズの

                                                                                LLM開発のフロー | フューチャー技術ブログ
                                                                              • 賢いと噂の日本語LLM「ELYZA」をウェブAPIで使う! Power Automateなどからも呼び出せる完全ローカル環境の構築【イニシャルB】

                                                                                  賢いと噂の日本語LLM「ELYZA」をウェブAPIで使う! Power Automateなどからも呼び出せる完全ローカル環境の構築【イニシャルB】
                                                                                • Appleがスマホの画面を認識できるマルチモーダルLLM「Ferret-UI」を発表、SiriがiPhoneアプリのUIを理解できるようになる可能性も

                                                                                  Appleの研究者が、スマートフォンのアプリUIを理解するために設計したマルチモーダル大規模言語モデル(MLLM)の「Ferret-UI」を開発したという論文を、未査読論文リポジトリであるarXivで公開しました。 [2404.05719] Ferret-UI: Grounded Mobile UI Understanding with Multimodal LLMs https://arxiv.org/abs/2404.05719 Apple teaching an AI system to use apps; maybe for advanced Siri https://9to5mac.com/2024/04/09/ferret-ui-advanced-siri/ ChatGPTのようなチャットボットAIシステムのベースとなっている大規模言語モデル(LLM)は、主にウェブサイトから収

                                                                                    Appleがスマホの画面を認識できるマルチモーダルLLM「Ferret-UI」を発表、SiriがiPhoneアプリのUIを理解できるようになる可能性も