Discover Our Future: Delve into Our Community Platform's Vision and Roadmap in Our Latest Paper
はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール
みなさん、お久しぶりです。A7です。ここ数か月いろいろと忙しくてなかなか記事を書けてませんでした。 松尾研LLM講座の記事もそのうちだすのでお待ちください そして今もまだ忙しいので、今回の記事もまたぱっとまとめます。笑 自己紹介 データサイエンティストを目指して日々勉強している、慶應義塾大学大学院理工学研究科1年生(2024.05.01時点) 取得資格、コンペ優勝経験など、リアルタイムの情報は👇👇👇をみてね X: @A7_data←普段はXで活動しています。ありがたいことに、フォロワーは6500人を超えました😌 プロフィールページ👇👇👇 X👇👇👇 背景 Kaggleやりたい!ってなってた。 Kaggleはデータサイエンティストなら知らない人はいない、世界一のデータサイエンスコンペティションプラットフォーム。 世界の第一線で働くデータサイエンティストの方も多く参加されてお
はじめに 株式会社Elithの大森一祥です。AIテックカンパニーの一員として、お客様の課題をAIを駆使して解決しています。 大規模言語モデル(LLM)が人間と匹敵する性能を発揮することもあり、弊社には多岐にわたるプロジェクトの依頼が寄せられています。最近は、情報漏洩のリスクを回避するため、独自のLLMの開発を希望されることが多いです。このような案件では、一般に公開されたモデル(ローカルLLM)を利用します。 ローカルLLMを活用して課題を解決する方法として、以下の4つが挙げられます。 プロンプトエンジニアリング:LLMに特定の出力を生成させるための入力文の工夫する手法 RAG:外部の文章データベースから、質問に類似した文章を取り出しLLMの入力として用いる手法 インストラクションチューニング:ユーザの指示に沿った出力を生成することを目的としたチューニング手法 継続事前学習:LLMモデルに対
Pythonベース Pythonの知識があれば比較的簡単にアニメーションを作成できます。Pythonは初心者にも学びやすい言語なので、Manimを使い始めるハードルが低いのが良い点です。 豊富な数学オブジェクト 数式、グラフ、ベクトル、行列など様々な数学オブジェクトをサポートしています。LaTeXを使って数式を綺麗に表示できるのも魅力的です。 柔軟なアニメーション オブジェクトの移動、変形、出現/消失など、様々なアニメーション効果を適用できます。カメラワークも自在にコントロール可能です。 高品質な出力 レンダリング品質が高く、滑らかで見栄えのする動画を生成できます。解像度やフレームレートなども細かく設定できます。 コミュニティの活発さ GitHubで公開されており、開発が活発に行われています。ドキュメントやサンプルコードも豊富で、コミュニティから情報を得やすいのも利点です。 初心者にとって
Dockerを使った機械学習環境の構築方法 株式会社松尾研究所で働いているからあげ(@karaage0703)です。松尾研究所では、機械学習(ここでは、予測モデル、画像認識からLLMまで幅広く扱います)を使う多数のプロジェクトが走っています。プロジェクトの特性は多種多様なので、環境構築方法は様々なのですが、松尾研究所では、環境構築方法の1つとしてDockerを推奨していています。今回はDockerを使った機械学習環境の構築方法を紹介します。 松尾研究所の特にインターン生を想定した記事にはなりますが、他の組織、個人の方にも参考になる部分があるかと思いWebに広く公開させていただきます。 なぜDockerで機械学習環境を構築するのか? 具体的な手法に入る前に、まずはDockerで機械学習環境を構築する理由から説明したいと思います。説明が不要な方はここはスキップしてもOKです。 そのために、Do
Gemma is a family of lightweight, state-of-the art open models built from research and technology used to create Google Gemini models. They are text-to-text, decoder-only large language models, available in English, with open weights, pre-trained variants, and instruction-tuned variants. For more details, please check out the following links: Gemma on Google AI Gemma on Kaggle Gemma on Vertex AI M
Open InterpreterをGUIで動かす Open Interpreterに関しては以下記事書きました。 GUIでも操作できるのですが、色々使い勝手に難がありました(特に日本語入力)。 いつかGradioやStremlitでGUI化したいなーと思っていたら、やってくれていた人がいました。すごすぎです。 しかも、Dockerで簡単に動きます。感動的ですらあります。 わざわざ動かし方書く必要すらなさそうですが、気づいてない人も多そうなので、感動を伝えるために簡単にメモしておきます。 「OpenInterpreterUI」動かし方 環境セットアップ DockerとVS Code+devcontainer拡張をインストールしましょう。インストールに関しては以下記事参照ください。 続いて、OpenInterpreterUIをクローンします。
Dockerは2023年10月3日から10月5日に開催されたDockerCon 2023で、「Neo4j」「LangChain」「Ollama」とともに「GenAI Stack」を発表した。 GenAI Stackは、Dockerおよび生成AI(GenAI)分野の先端技術を結集したもので、開発者はわずか数クリックでGenAI Stackをデプロイし、生成AIを活用したアプリケーションを開発、構築できるという。 GenAI Stackの特徴は GenAI Stackを利用することで、AI/機械学習(ML)モデルの統合を簡素化し、生成AI技術を容易に利用できる。Ollama、Neo4jなど生成AIによるアプリケーション開発に必要な開発環境が、Dockerコンテナで連携可能な状態で提供される。 関連記事 「生成AI」と「ローコード/ノーコード開発ツール」は相性が良い? 日立ソリューションズが導入
「Mistral」「Llama 2」「Vicuna」などオープンソースの大規模言語モデルを簡単にローカルで動作させることが可能なアプリ「Ollama」の公式Dockerイメージが登場したので、早速使い勝手を試してみました。 Ollama is now available as an official Docker image · Ollama Blog https://ollama.ai/blog/ollama-is-now-available-as-an-official-docker-image Ollamaで動作可能な大規模言語モデルの代表例は下記の通り。リストの全体についてはOllamaの公式サイトで確認することができます。 モデルパラメーターサイズDownloadMistral7B4.1GBollama run mistralLlama 27B3.8GBollama run ll
生成AIがDockerを使った開発の質問に答えてくれる「Docker AI」発表、Dockerfileのエラーなども修正。VSCode対応。DockerCon 23 Docker社は米ロサンゼルスで10月3日と4日の2日間、年次イベント「DockerCon 23」を開催。2日目の基調講演で、Dockerに関する質問に答えてくれたり、Dockerfileのエラーを解析して指摘してくれたりする生成AI「Docker AI」(コードネーム)を発表しました。 Docker AIはVisual Studio Code(以下VSCode)から利用するようになっており、例えば「How do I dockerize my project」(プロジェクトをDockerコンテナ化するにはどうすればよいですか?)、という質問に対して、VSCode上で開発中のプロジェクトの内容に沿った回答をしてくれます。
Open Interpreterのライセンス、バージョンアップのタイミングでMITからAGPL-3.0に変更されていますので注意ください。 Open Interpreterが凄い 凄いの出ちゃいましたね。Open Interpreterの凄さとか、可能性とかは、以下のshi3zさんのブログ記事で感じていただければと思います。こういうエモい文章はshi3zさん最高に上手ですね。 自分としては、Advanced Data Analysis(旧ChatGPT Code Interpreter)を触っていて「こりゃ凄いな」と思っていたものの、少し制約に窮屈さを感じていたところだったのでバッチリのタイミングでした。 Open InterpreterをDocker環境を動かす Open Interpreter凄いのですが、問題は凄すぎる点ですね。ガンガンコマンドを実行するので、ローカルで動かしたら凄い
Dockerは2023年7月11日(米国時間)、画像生成AI「Stable Diffusion」の実行環境を容易に構築する方法として「Docker Desktop for Windows」および「Windows Subsystem for Linux 2(WSL2)」を活用した手順を解説した。 Stable Diffusionは、プロンプトと呼ばれるテキストから高解像度画像を生成する能力によって、クリエイティブなデザイン、ビジュアルストーリーテリング、コンテンツ生成などさまざまな分野で新たな可能性を開くものとして注目を集めている。Stable Diffusionはオープンソースであり、多くの研究者や開発者にとって、頼りになるツールの1つとなっている。 Stable Diffusionの環境構築にDocker Desktopを利用するメリットは? 関連記事 誰もが知っておくべき画像生成AI「
Llama 2 発表! Metaから商用利用可能なライセンスでオープンなLLMであるLlama 2が発表されました。 こりゃすごそうだけど、しばらくは様子見かなーと思っていたら、npakaさんが一瞬で動かしているではありませんか。 こりゃやるしかないと、ローカルでDockerで動かしてみました。要は、npakaさんの記事の「(1) Pythonの仮想環境の準備」を詳しく書いたものです。 DockerでLlama 2を動かす Dockerファイルは、以下リポジトリに格納してあります。 セットアップ方法は、以下参照ください。Linux/Windows前提です。Mac(Apple Silicon)では残念ながら今のところ動きませんでした。 Macでも動きますが、時間が非常にかかるので実用的ではないです。 Dockerのイメージ作成(ビルド)まで実施したらOKです。 続いて量子化されたモデルlla
Local runtimes Colab lets you connect to a local runtime. This allows you to execute code on your local hardware. Security considerations Make sure you trust the authors of any notebook before executing it. With a local connection, the code you execute can read, write, and delete files on your computer. Connecting to a runtime on your local machine can provide many benefits. With these benefits co
次々と発表されるオープンな日本語大規模モデル どうなっているの??という感じですよね。 我らがnpakaさんは、さっそくGoogle Colabで動かしていらっしゃいます。 ただ、Google Colabだと毎回モデルのダウンロードが大変なので、ローカルでDocker使って手軽に動かせるといいな、ということでやってみました。 以下GitHubのリポジトリにDockerfileとサンプルプログラムをおいています。チャットっぽいことをできるようにしています。 上記で、サイバーエージェントとリンナのLLMが両方動きます。 使用環境 前提となる環境です。使用しているPCのスペックは以下です。 項目 内容
Stable DiffusionをWindowsのDocker Desktopで比較的簡単にはじめる手順をまとめました。ほぼ、自分の覚書です。 確認した環境は、Windows 10 Pro、21H2、build 19044.2846+16GB RAM+NVIDIA GeForce RTX 2060 SUPER+WSL2(Ubuntu)+Docker Desktop 4.18.0(104112) です。 どうして Stable Diffusion のために Docker Desktop を使うのか? 楽してセットアップしたいからです。AUTOMATIC1111/stable-diffusion-webui というウェブ用 UI は既にありますが、動かすためには環境構築等いくつかの手順が必要です。ですが、この面倒な作業を省略してできる Stable Diffusion WebUI Docker
After listening to feedback and consulting our community, it’s clear that we made the wrong decision in sunsetting our Free Team plan. Last week we felt our communications were terrible but our policy was sound. It’s now clear that both the communications and the policy were wrong, so we’re reversing course and no longer sunsetting the Free Team plan: If you’re currently on the Free Team plan, you
この記事は kaggle用にNVIDIA A100 GPUを使いたかったので、 GCP&kaggleコンテナイメージを用いた環境構築に挑戦したところ、 思ったより難しくて数日を費やしてしまったので、備忘録として手順を整理しました。 GCPに手を出してみたいけど躊躇している方や、今現在同じように苦労している方の助けになれば幸いです。 (注意事項) あくまでkaggle用学習環境の構築方法であることにご注意ください。例えばプロダクト用のGPU環境が欲しい場合は、より適切な手順があると思います。 本記事では(筆者がPyTorchユーザーのため)Tensorflowはサポートしていません。 ただし、kaggleコンテナを開始するところまでは同じ進め方のはずなので、参考にはなると思います。 手順 (事前準備)GPUの割り当て申請 GCPでGPUを使用するためには、割り当ての申請を事前に行う必要があり
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く