タグ

stealthinuのブックマーク (25,717)

  • 今高校生 この先に希望がない 友達とかも割とそう みんな声優になりたいと..

    今高校生 この先に希望がない 友達とかも割とそう みんな声優になりたいとかVtuberになりたいとか適当に派遣で暮らしたいとか話してる 聞かれたら真面目に看護師とか警察官とか答えてるだけ、大人は子供のなりたい職業ランキングを見て一喜一憂して楽しそうだなと思う 内心はどうせ年金もない社会保険も値上がり税金も値上がり物価も値上がりで暗黒時代なのに、更に真面目に働かないといけないとか最悪すぎる 親のエゴで負担や不安の多い少子化の時代に産み落とされた、と感じてる 団塊が一気にいなくなったらまだマシらしいけどそれっていつ? 俺ら個人に国を残そうなんて考えない、選挙に行って何か変わるのか?それを待つ間ただ意味もなく負担だけして報われる時がくるのか? そんなの待って自分の人生不自由になるならそりゃ子供なんか産まないし、社会のことなんかどうでも良くなるよなー あーあおかしいおかしい

    今高校生 この先に希望がない 友達とかも割とそう みんな声優になりたいと..
    stealthinu
    stealthinu 2024/06/10
    なに言ってんの!?今の高校生こそ、これからAGIで世の中の急激な変化に一番対応できる年代でお得だろうに。ある意味、異世界転生みたいなことがおこるわけだし。
  • 全国中学体育大会 スキー・スケート取りやめ 競技盛んな北海道落胆 負担減に理解も(北海道新聞) - Yahoo!ニュース

    今年、長野県野沢温泉村で開催された全国中学スキー大会。アルペンスキー競技のゴール付近で健闘をたたえ合う選手たち=2月8日(藤井泰生撮影) 日中学校体育連盟(日中体連)が、2027年度から全国中学校体育大会(全中)の大幅な規模縮小に踏み切ったことを受け、道内の関係者からは懸念する声が相次いだ。スキー、スケートなど冬季競技の中心としてジュニア選手育成に関わる道内指導者や北海道中体連の関係者は、教員の負担軽減には理解を示す一方、子どもが目標とする大会がなくなることに落胆する声もあった。 「競技経験がない教員も大会に付き添わなければいけないなど、負担が大きい部分があった」 アルペンスキー女子で五輪に2大会連続で出場している安藤麻選手(28)も所属した旭川ジュニアアルペンチームの美浪秀行代表(80)=旭川市=は教員の負担に思いをはせつつ、「(大会数が減ると)選手のモチベーションを維持するのが難し

    全国中学体育大会 スキー・スケート取りやめ 競技盛んな北海道落胆 負担減に理解も(北海道新聞) - Yahoo!ニュース
    stealthinu
    stealthinu 2024/06/10
    全中でスキー、スケートやらなくなるんだそうだ。確かに全中なくなるのは影響大きそう。
  • Python for Data Analysis, 3E

    About the Open Edition The 3rd edition of Python for Data Analysis is now available as an “Open Access” HTML version on this site https://wesmckinney.com/book in addition to the usual print and e-book formats. This edition was initially published in August 2022 and will have errata fixed periodically over the coming months and years. If you encounter any errata, please report them here. In general

    stealthinu
    stealthinu 2024/06/10
    “Python for Data Analysis”のオープンアクセス版
  • Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models

    Large Language Models (LLMs) are often described as being instances of foundation models - that is, models that transfer strongly across various tasks and conditions in few-show or zero-shot manner, while exhibiting scaling laws that predict function improvement when increasing the pre-training scale. These claims of excelling in different functions and tasks rely on measurements taken across vari

    stealthinu
    stealthinu 2024/06/08
    オープンなLLMで現在使われているベンチマークでは高評価になるものがぜんぜんダメなタイプの問題もありクローズドなLLMではその問題が起きないためベンチ自体を改善する必要があるとの指摘
  • Deep State Space Models 101 / Mamba

    Deep State Space Models 101 / Mamba 2024/01/19 Kotoba Technologies Seminar Series で使用した発表資料です. 連絡先:https://twitter.com/hiroto_kurita

    Deep State Space Models 101 / Mamba
    stealthinu
    stealthinu 2024/06/07
    Deep State Space Models(DSS)がどんなモデルなのかの説明。TransformerとRNNのいいとこ取りを目指す。Mambaの解説。
  • 新たな高みを目指して - Google

    2021年の東京オリンピックで新競技として採用された以降も、スケートボードへの関心は高まり続けています。しかし人気の一方で、男女別の競技人口には依然として偏りが見られます。また、女性のプロアスリートが企業スポンサーを得る機会も未だ限られています。 この不均衡の根の原因は、女性の能力不足ではありません。プロスケーターであるスカイ・ブラウンのようなアスリートたちは、より多くの女子がスポーツに参加するよう声を上げています。しかし、こうした努力の妨げとなっている背景には、女子は男子に比べて技術に劣るという誤解があります。 スケートボードは、優れた運動神経と予測不能な体の動き、そして独自のセンスが求められるスポーツです。スタイルは常に好みや考え方で評価される中、テクノロジーを使うことで、人間の目では測定できないパフォーマンス データを取得することができます。こうして得られたデータは、女性アスリート

    新たな高みを目指して - Google
    stealthinu
    stealthinu 2024/06/07
    ポーズ推定から自動で判定させるシステム、2022年にはGoogleのチームによって実験されてるんだな。
  • [論文メモ] THE SINGING VOICE CONVERSION CHALLENGE 2023 - にんひどりんはんのう

    arxiv.org 歌声変換チャレンジ 概要 2016年から開始されたVoice Conversion Challenge(VCC)は対象話者への声変換をベース目標としてやってきた。VCC2020では自然性についてはまだ人間レベルではないにしろ正解話者との類似度は非常に高くなった。そこで音声変換ではなく、より難しい歌声変換を目標としSinging VCC(SVCC)に変更した。 歌声変換が声変換より難しいと考えられる理由は 1) 普通の発話と異なり様々なピッチ、音圧、表現や歌唱のスタイルがある 2) ピッチについては曲の音符に従いつつも、歌い方は歌手によって異なるのでそれらの情報を適切に扱う必要がある 簡単な結果の概要が図1 タスクとデータセット タスクは2つ in-domain SVCとcross-domain SVCで複数話者から一人の話者に変換するany-to-oneのタスク In-

    [論文メモ] THE SINGING VOICE CONVERSION CHALLENGE 2023 - にんひどりんはんのう
    stealthinu
    stealthinu 2024/06/06
    SVCC(Singing Voice Conversion Challenge)2023には日本からはRIKEN、名大、Parakeetが参加してたんだ。唯一SiFiGAN使ってるT13が名大かな?
  • [論文メモ] VITS-based Singing Voice Conversion System with DSPGAN post-processing for SVCC2023 - にんひどりんはんのう

    arxiv.org ASRU2023 VITSベースのSinging Voice Conversion(SVC)モデルの提案 Voice Conversion Challenge 2023 (SVCC2023)に参加したT02チームの手法。 SVCC2023についてはこちらの記事にまとめた。 ninhydrin.hatenablog.com 手法 アーキテクチャ全体像は図2を参照 基的にはVITSをベースとしていて、学習時の入力はF0、スペクトログラム、HuBERTによるSSL特徴の3つになる。 元のVITSではPrior Encoderの入力がテキスト(音素)、Posterior Encoderの入力がスペクトログラムだったのに対し、提案手法ではPrior Encoderの入力をHuBERT特徴量とF0、Posterior Encoderの入力をスペクトログラムとF0に拡張した。 F0

    [論文メモ] VITS-based Singing Voice Conversion System with DSPGAN post-processing for SVCC2023 - にんひどりんはんのう
    stealthinu
    stealthinu 2024/06/06
    これMMVCと同じ構成だな。adaptation tricksでDAと複数話者での学習がないと過学習で類似性が大きく低下、というのは参考になった。やっぱ多者での事前学習重要なんだろう。
  • 今時点でUbuntu 22.04から24.04へdo-release-upgradeするためのmeta-releaseをつくった - ぶていのログでぶログ

    Ubuntu 24.04 LTSリリースめでたい 🎉 discourse.ubuntu.com gihyo.jp 早速Ubuntu 22.04からdo-release-upgradeして24.04にしようとしたら新しいLTSバージョンはないと表示される… $ do-release-upgrade Checking for a new Ubuntu release There is no development version of an LTS available. To upgrade to the latest non-LTS development release set Prompt=normal in /etc/update-manager/release-upgrades. mantic(23.10)とjammy(22.04 LTS)からのアップグレードは現時点ではアンロック

    今時点でUbuntu 22.04から24.04へdo-release-upgradeするためのmeta-releaseをつくった - ぶていのログでぶログ
    stealthinu
    stealthinu 2024/06/06
    Ubuntu 22.04 -> 24.04 へのアップグレードは24.04.1が出るまでは do-release-upgrade では出来ないらしい。
  • インターネットの人の終わり: pha『パーティーが終わって、中年が始まる』 - laiso

    phaさん(id:pha)が新刊を出したのをたまたま観測したので読んだ。 パーティーが終わって、中年が始まる (幻冬舎単行) 作者:pha幻冬舎Amazon 個人的には2013年の最初のニートの歩き方』以来だったので10年分のphaさん情報を一気に知れてよかった。僕の認識している最後のphaさんは確か練馬のシェアハウスで相変わらず熊野寮にいる大学生のような生活をしていたと思うが、10年もあればあれから色々あってザ・ノンフィクションに出たりバンドを始めたりして四十代の中年にもなって流石の最強ニートもクライシスの最中にある、というのがこののテーマのようだ。 phaさんとは旧知の仲であるがあまり接点はない。会ったことが数えるぐらいしかないのだけどなぜか会話量に対して関係性が深く、恩人のようなポジションにいる。葬式とかあったら行けたら行くレベル 当ブログの以下の過去記事に練馬のシェアハウス

    インターネットの人の終わり: pha『パーティーが終わって、中年が始まる』 - laiso
    stealthinu
    stealthinu 2024/06/06
    『Webのソフトウェア業界でも「インターネットが好き」という合言葉のような共通価値観がある。これも現在からみたら「水道が好き」のような違和感のある言葉だ』この感覚よくわかる。
  • プロンプトを5倍圧縮できる「LLMLingua-2」

    導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、サービスのシステム開発を行なっています。サービスではLLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 記事では、入力するプロンプトの圧縮を効率的に行うための技術、LLMLingua-2について解説します。 LLMLingua-2は、いくつかの手法を組み合わせることによって、品質を下げないままプロンプトを圧縮してくれます。 サマリー LLMLingua-2は以下の方法で、情報の欠落を抑えた上でプロンプトのトークン数を大幅に減らすことに成功しています。 ターゲットとなるLLM(GPT-4など)にプロンプトの圧縮タスクを行なってもらう そのデータを基に入力したプロンプトを構成するトークンの不要、必要を判断する機械学習モデルを作成する 入力に対して上記機械学習

    プロンプトを5倍圧縮できる「LLMLingua-2」
    stealthinu
    stealthinu 2024/06/06
    プロンプト圧縮する手法。コストや速度面、パフォーマンスで有利になる。GPT使って自動で学習データセット作ってそれにトークンの必要度を判定させる学習モデルを作るという事前準備が必要。
  • Python + VSCode の環境構築 20240604

    作業メモ。モダン Python 速習。 AI 周りのツールを動かしていたら TypeScript だけでやるには無理が出てきたので、久しぶりに Python の環境構築をする。 具体的には TestGen LLM を動かしたい。 Python はたまに触るけど、基 2.x 時代の知識しかない。 基的にこの記事を読みながら、細かいアレンジをしている。 追記 rye が ruff と pytest を同梱してるので rye fmt, rye check, rye test で良かった uvicorn を叩くより、 fastapi-cli を使って起動したほうが良さそうので変更 基方針: Rye に全部任せる 良く出来てると噂に聞いたので、 rye に任せる。 自分が Python が苦手な点は pip を下手に使うと環境が汚れていく点で、基的に rye で閉じて管理させる。システムの

    Python + VSCode の環境構築 20240604
    stealthinu
    stealthinu 2024/06/05
    rye+ruff+mypy+pytest この機にmypy入れてpythonも型書くようにする。
  • ひたすらAI絵をやってたら絵が描けるようになってた話|賢木イオ @studiomasakaki

    こんにちは、「機動戦士ガンダム 水星の魔女」が大好きなおじさんです。「水星の魔女が好きすぎて、AI絵をひたすら生成してたらいつの間にか絵が描けるようになっていた」という妙な体験をしたので、それについて記事を書いてみようと思います。具体的にどれくらい?というと、特に練習していないのにこれくらい変わっていました。 ←2023年9月 / 2024年2月→ 始めにお断りしますが、この記事は、「AI絵をやるのがお絵描き上達への近道だョ!」だとか、「お絵描きをやるにはこうしたらいいョ!」といったものではありません。「絵が描けるようになる」の定義は人によって違うでしょうが、少なくともこの程度のレベルで他人様にお絵描き指南をしようなど、完全に暴挙であることくらいは分かります。私は今の自分の絵をお世辞にも上手だとは思っていませんし、それほど絵を上手になりたいとも思っていません。 この記事は「特に絵を練習して

    ひたすらAI絵をやってたら絵が描けるようになってた話|賢木イオ @studiomasakaki
    stealthinu
    stealthinu 2024/06/05
    AI絵について批判されることが多いが、AI絵すごくやってる方が絵自体もうまくなったという話。あくまでAI生成を書くための道具として使っている。
  • 【時給5000円】今一番おいしい「AIバイト」って何だ?

    そんな疑問を持ったことはないだろうか。どうやらインターネット上のあらゆるデータから学習して、日々賢くなってるらしいけど、細かいとこはやっぱり分からない──。

    【時給5000円】今一番おいしい「AIバイト」って何だ?
    stealthinu
    stealthinu 2024/06/05
    いわゆる高学歴層にAIの強化学習をしてもらうという「バイト」バイトといっても時給最大4800円と普通のその辺の受注仕事より単価高い。
  • Introduction - SITUATIONAL AWARENESS: The Decade Ahead

    Leopold Aschenbrenner, June 2024 You can see the future first in San Francisco. Over the past year, the talk of the town has shifted from $10 billion compute clusters to $100 billion clusters to trillion-dollar clusters. Every six months another zero is added to the boardroom plans. Behind the scenes, there’s a fierce scramble to secure every power contract still available for the rest of the deca

    Introduction - SITUATIONAL AWARENESS: The Decade Ahead
    stealthinu
    stealthinu 2024/06/05
    元OpenAIで超知性の安全性研究担当が書かれたこの数年後に起こるシンギュラリティまでの過程と懸念をまとめた文書。あと3年でAGIでその後2年以内に超知性と予想されてる。これは必読。
  • 夢展望[3185]:不正アクセスによる当社子会社公式ホームページのドメイン盗難についてのご報告 2024年6月3日(適時開示) :日経会社情報DIGITAL:日本経済新聞

    2024年6月3日 夢展望[3185]の開示資料「不正アクセスによる当社子会社公式ホームページのドメイン盗難についてのご報告」 が閲覧できます。資料はPDFでダウンロードできます

    夢展望[3185]:不正アクセスによる当社子会社公式ホームページのドメイン盗難についてのご報告 2024年6月3日(適時開示) :日経会社情報DIGITAL:日本経済新聞
    stealthinu
    stealthinu 2024/06/04
    ドメイン管理の乗っ取りでドメイン移管が自分でできない状況… これはつらい。
  • Kotomamba: mamba-2.8B 学習知見

    はじめに Kotoba Technologiesでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 Kotoba TechnologiesはNLPと分散並列学習に関する技術を用いて、日及び非英語圏におけるLLMやマルチモーダルモデルの実運用に向けた研究開発を行っています。 日(2024/2/19) 2つのmambaモデルをリリースさせて頂きました。 1つは、from scratchから日語と英語のコーパスにて学習を行ったkotomamba-2.8B-v1.0、もう1つはstate-spaces/mamba-2.8b-slimpjから日語と英語で継続事前学習を行ったkotomamba-2.8b-CL-v1.0です。 両方のモデルとも、同規模のTransformerモデルと並ぶ性能を示しました。 記事では、kotomambaモデルの性能と、モデル

    Kotomamba: mamba-2.8B 学習知見
    stealthinu
    stealthinu 2024/06/04
    Mambaモデルでの学習の実際例。2024/2時点ではまだまだ情報少なくて苦労が多そうだが性能は論文通りにでるっぽい。
  • 「Google Maps」を名乗る方から電話がかかってきて「営業時間を教えて欲しい」と聞かれ…会話の仕方が完全に人間だった「不気味の谷現象を体感する時代」

    Masakazu Asama @m_asama いま Google Maps を名乗る方から電話がかかってきて「営業時間を教えて欲しい」ということだったんだけど、完全に人間じゃなかったんだけど完全に人間だった。。。ちょっとした恐怖のようなものを感じてしまった。。。 2024-06-03 12:17:58 Masakazu Asama @m_asama 平日の営業時間しか答えなかったら「土日はやってるのか?」と聞かれて、土日はやっていないと答えたら「『月曜日から金曜日のx:xx~x:xxで土日はやってない』で間違いないか」と聞かれ間違いないと答えたら「ありがとうございました」といって切られた。。。 2024-06-03 12:18:13

    「Google Maps」を名乗る方から電話がかかってきて「営業時間を教えて欲しい」と聞かれ…会話の仕方が完全に人間だった「不気味の谷現象を体感する時代」
    stealthinu
    stealthinu 2024/06/04
    Google Mapsで店の情報を聞くオペレーションをAIで電話かけて自動収集するようになった。今後はこの手の利用が一気に増えると予想する。AIによる音声オペレーション一般化
  • 論文解説をGPT-4oを使って自動的に生成してみる - Qiita

    Prompt Tokensはテキストの15%になっています。 計算しやすいようにCompletion Tokensをどちらも1,000とすると、 画像として処理した場合は0.022595ドル=3.55円 テキスト抽出して処理した場合は0.065995ドル=10.38 円 と約3倍もの開きがあります。 一方で処理時間は1.5倍に増加しています。 実装紹介: 論文から解説生成 落合陽一さんが紹介したサーベイの方法論を使い、論文解説を生成します。 処理手順 arXiv URLからプレプリントをダウンロード base64形式に変換後 GPT-4oに渡して解説を生成 実装 def download_paper(arxiv_url: str, save_dir: str) -> str: """ arXivから論文をダウンロードする関数 Args: arxiv_url (str): ダウンロードする論

    論文解説をGPT-4oを使って自動的に生成してみる - Qiita
    stealthinu
    stealthinu 2024/06/03
    PDFを読ませるのではなくて画像として読ませることでトークン数を少なく処理できると。これは意外だった。あと画像や表をちゃんと見て解釈してくれてる感じ。
  • SliceGPTを使って日本語LLMをPruningしてみる | 株式会社AI Shift

    こんにちは AIチームの戸田です 今回はLLMを軽量化するPruningを行うライブラリ、SliceGPTを使って日語LLMのPruningを試してみたいと思います。 SliceGPT LLMに限らず、大規模なニューラルネットワークのパラメータを圧縮する手法の一つにPruningがあります。日語では「枝刈り」や「剪定」とも訳されており、重要ではないと思われるノード間の重みを削除することでパラメータ数を削減する手法です。こちらの論文などが有名です。 Pruningのイメージ PruningはLLMの圧縮手法として有効な手段なのですが、性能を維持するためにPruning後にRecovery fine-tuningという学習を行わなければならず、これがコストになるという課題がありました。SliceGPTはこのRecovery fine-tuning無しで90%以上の性能を維持したまま、最大2

    SliceGPTを使って日本語LLMをPruningしてみる | 株式会社AI Shift
    stealthinu
    stealthinu 2024/06/03
    GPTのPruningで枝刈りで15%削減できたのに対しベンチ性能が0.74->0.68と90%に低下。うーむ。枝刈りはあんまり得策じゃないというか、知識はニューラルネット内に広く浅く分布してる感じ。