タグ

分類に関するsh19910711のブックマーク (35)

  • CVPR2020読み会 Proxy Anchor Loss for Deep Metric Learning

    CVPR2020読み会(後編)の資料です なるべくMetric Learningに良い感じに入門できるようになってます

    CVPR2020読み会 Proxy Anchor Loss for Deep Metric Learning
    sh19910711
    sh19910711 2024/06/09
    "Metric Learning: 未知のクラスも「未知のクラス」として対応できる + 学習時に無いクラスが推論に出てくる課題設定に◎ (Face Recognition, ...) / Proxy Anchor Loss: 各クラスにつき1つある代表点 + 空間的情報は活かしきれてない" 2020
  • A Brief Survey on Sequence Classification(系列データの分類)の要約 - xiangze's sparse blog

    最近時系列データの解析を専門とする人たちのお話をきいたり、ブログを読んだりする機会が多くなっています。工学の枠を超えてビジネスでの応用が盛んになっているようなのですが、今まで制御理論などで得られた理論、知見とは大きな隔たりがあります。 そこで系列データの分類(sequence classiffcation)に関して簡潔にまとめられたドキュメントであるA Brief Survey on Sequence Classification (pdf) を読みました。表題の通り実質6ページで構成された短いドキュメントですが、自分の理解の為にその内容を簡単ではありますが以下にまとめます。 1. INTRODUCTION まず系列データ(sequence data)を以下のように分類しています。 simple symbolic sequence アルファベットなどの記号を単純に並べたもの。DNA  seq

    sh19910711
    sh19910711 2024/06/08
    "「A Brief Survey on Sequence Classification」: 系列データの分類(sequence classiffcation)に関して簡潔にまとめ / 正弦波問題: 時系列が周期的な場合には、その位相を無視したクラスタリングを行うと無意味なクラスター中心が得られ" 2013
  • SageMakerで作るケチケチ文書分類 - Mirai Translate TECH BLOG

    みらい翻訳の西山です。社内ではlisaと呼ばれてます。機械翻訳エンジン研究開発チームのエンジニアリングマネージャーをしています。 さて、突然ですが、みなさんディープラーニングしてますか?ご自宅にGPUはありますか? 筆者も週末に趣味で文書を分類したりしているのですが、家にあるGPUはNVIDIA GeForce RTX 2080Tiで、バッチサイズを小さくする必要があったりと、少々物足りません*1。 そこで頼りにしたいのがAmazon EC2等の仮想コンピューティング環境ですが、GPUが利用できるサーバーインスタンスは一般に高額で、「必要な時に起動&用が済んだら直ちに終了」を徹底しないと利用金額がかさみがちです。 今日は趣味でディープラーニングをおやりになっている皆様向けに、なるべく安価に構築・運用可能なクラウドディープラーニング環境のご紹介をしたいと思います。 ※この記事の内容はみらい翻

    SageMakerで作るケチケチ文書分類 - Mirai Translate TECH BLOG
    sh19910711
    sh19910711 2024/06/08
    "インスタンス起動・終了のような操作は、人間が注意深く実施するのではなく、なるべく適切なタイミングに自動で行われるようにしたい / SageMaker SDKを使って、学習と推論の時だけAWS上のリソースを使う" 2022
  • Probability Calibration手法の紹介 - Qiita

    はじめに 近年では、機械学習モデルがいたるところで使われるようになってきています。機械学習モデルの用途は様々ですが、よく使われる用途の一つに分類タスクが存在します。 多くの機械学習モデルでは、クラス分類の際に、各クラスに対して、数値化されたスコアを出力し、最大値を取るクラスを、そのデータの属するクラスとして判別することが多いです。この時、出力値を0〜1の範囲に正規化することもよく行われます。 気をつけなければならないのは、分類精度が高いモデルであっても、必ずしもこのスコアはそのクラスに属する確率を示しているわけではない点です。 値が1に近いほど、そのクラスに属する確率が高く、0に近いほど、そのクラスに当てはまらない確率が高い、ということは多くの場合、間違いないです。一方で、スコアが0.7のデータを集めてきたら、これらのデータが該当のクラスに属する確率が70%であるか、というと、モデルやデー

    Probability Calibration手法の紹介 - Qiita
    sh19910711
    sh19910711 2024/06/07
    "スコアが0.7のデータを集めてきたら、これらのデータが該当のクラスに属する確率が70%であるか、というと、モデルやデータによっては、そうはならない / AdaFocal: モデルが自信過剰なときには、𝛾の値をより大きく"
  • 広津先生による時系列のクラスタリング手法の実装 - StatModeling Memorandum

    お正月に広津先生のクラスタリング手法をRで実装しました。個体ごとの時系列データをクラスタリングするのに使えます(実際は時系列ではなく一般の2-wayのデータに適用できます)。 個人的に感じる適正なサンプルサイズと時点のサイズはおよそ、10~1000個体、4~30時点程度です。これ以上時点が多い場合は、状態空間モデルなどの方がよいと思われます。 参考文献として以下の3つを挙げます。 [1] Hirotsu, C.(2009): Clustering rows and/or columns of a two-way contingency table and a related distribution theory. Computational Statistics and Data Analysis 53, 4508-4515 [2] 広津千尋 (2004) : 交互作用は相互作用?2 コ

    広津先生による時系列のクラスタリング手法の実装 - StatModeling Memorandum
    sh19910711
    sh19910711 2024/06/07
    "個体ごとの時系列データをクラスタリング / 個人的に感じる適正なサンプルサイズと時点のサイズはおよそ、10~1000個体、4~30時点程度 / これ以上時点が多い場合は、状態空間モデルなどの方がよいと思われ" 2014
  • 論文翻訳: Deep Clustering for Unsupervised Learning of Visual Features - MOXBOX #DeepCluster #CNN

    \( \def\vector#1{\boldsymbol{#1}} \) \( \newcommand{\argmax}{\mathop{\rm argmax}\limits} \) Mathilde Caron, Piotr Bojanowski, Armand Joulin, and Matthijs Douze Facebook AI Research Abstract 概要: クラスタリングはコンピュータ・ビジョンで広く適用され研究されている教師なし学習方法の一種である。しかし大規模なデータセット上での視覚的特徴量の end-to-end 学習にクラスタリングを適用させる研究は殆ど行われていない。研究では、ニューラルネットワークのパラメータと、その結果として得られた特徴量のクラスタ割り当てを組み合わせて学習するクラスタリング手法である DeepCluster を提示する。Deep

    論文翻訳: Deep Clustering for Unsupervised Learning of Visual Features - MOXBOX #DeepCluster #CNN
    sh19910711
    sh19910711 2024/05/29
    "DeepCluster: k-means を使用して特徴量を反復的にグループ化 + そのクラスタ割り当てを次の学習の教師として使用しネットワークの重みを更新 / このタイプの交互の手順は自明解 (trivial solution) になりがち" 2018
  • マイナーな正則化手法「ラベル平滑化」は実は効果アリアリらしい - Qiita

    教師あり学習のクラス分類タスクにおいては、既に様々な正則化手法が考案・実用化されています。 例えば、荷重減衰(Weight Decay)、ドロップアウト、バッチ正規化やレイヤー正規化などが知名度高いでしょう。 しかし「ラベル平滑化(Label Smoothing)」というのは、「あ~なんか聞いたことある」とか「何それ?」というくらい、認知度がありません。 なぜでしょう?実装は恐ろしいほど簡単で、ちゃんと 論文もある(※1) んですが。 ※1)「Rethinking the Inception Architecture for Computer Vision」のP6「7. Model Regularization via Label Smoothing」 稿では、ラベル平滑化の正則化の効果をMNISTを使用して実験し、少なくともこの実験の条件下においては正則化の効果があることを示しています

    マイナーな正則化手法「ラベル平滑化」は実は効果アリアリらしい - Qiita
    sh19910711
    sh19910711 2024/05/29
    "Label Smoothing: 実装は恐ろしいほど簡単 + 訓練データの正解ラベルのone-hot vectorを、「0」「1」と白黒はっきりさせないで、「少しボカした」数値にする + 正解クラスのラベル数値を、「1」→「1 − 𝜖」" 2021
  • 深層自己符号化器+混合ガウスモデルによる教師なし異常検知

    [DL輪読会]Understanding Black-box Predictions via Influence Functions

    深層自己符号化器+混合ガウスモデルによる教師なし異常検知
    sh19910711
    sh19910711 2024/05/28
    "DAGMM: 深層自己符号化器によって次元削減 + 再構築エラーをconcatして低次元の特徴を得て ~ / 異常検知の段階では推定密度からあるサンプルに対する確率密度を計算 + 対数をとって-1倍してエネルギーと呼ぶ" 2018
  • Label Distribution Learningを用いた順序を持つ確率分布の学習 - MicroAd Developers Blog

    はじめに こんにちは、マイクロアドで機械学習エンジニアをしている大庭です。現在はUNIVERSE Adsというプロダクトで入札アルゴリズムの研究開発および実装を担当させていただいてます。 今回の記事では、Real-Time-Biddingにおけるオークションの落札額、自社の落札確率を求めるタスクである落札予測に対しLabel Distribution Learning(LDL)という手法を試してみたのでその結果をご紹介したいと思います。 落札予測 落札予測とはRTBのリクエスト情報からそのリクエストがいくらで、どのくらいの確率で落札されるのかを予測するタスクのことです。 落札予測ではモデルの出力が確率分布であることが特徴で、これにより予測結果を「落札額の推定」や「ある入札額で入札した場合の落札確率」など複数の用途に利用できます。 落札予測の問題設定やモデルの詳細については以下の記事にまとめ

    Label Distribution Learningを用いた順序を持つ確率分布の学習 - MicroAd Developers Blog
    sh19910711
    sh19910711 2024/05/26
    "落札予測にDeepHitモデルを利用 + 連続的な値である落札額の予測にそのまま適用することはできません / Label Distribution Learning: クラス間に連続性のある多クラス分類問題" 2021
  • OpenAI gpt-4o でzero shotで異常検知(Anomaly Detection)を試してみる|スカイ

    はじめにこんにちは、Caratの脇山です。 先日 gpt-4o が発表リリースされました。 性能、速度、料金などがアップデートされましたね。 詳細は他の方の記事や公式のドキュメントにまとまっているので触れませんが、特にトークナイザの改善と音声モデルの処理が一つのニューラルネットで完結できる点に感動しました。 具体的にはトークナイザ改善でより高速、高性能、低価格を実現できる点や 音声が 音声 -> テキスト -> 音声 の3つのパイプラインを通って生成されるのではなく、1つのニューラルネットで周囲の音や感情といった情報も踏まえて生成される点がすごいと思っています。 gpt-4oを使った音声出力を試したかったのですが、近日公開ということなので、別の検証をしていきたいと思います。 画像の読み取り精度がアップしたということで、どのくらいの改善がされたのだろうと思い、異常検知のデータセットを使って精

    OpenAI gpt-4o でzero shotで異常検知(Anomaly Detection)を試してみる|スカイ
    sh19910711
    sh19910711 2024/05/19
    "gpt-4o: 画像の読み取り精度がアップ + 異常検知のデータセットを使って精度を検証 / プロトタイプの機械学習モデルを作るのに最適 + 検証した結果を元に本格的な機械学習モデルを作るのが良い"
  • Online Label Smoothingの実装と評価 - Qiita

    はじめに 過学習防止効果があるとされるLabel Smoothingだが、これに改良を加えたというOnline Label Smoothingの論文を見つけたので、tf.kerasで実装して評価して見た。 Online Label Smoothingとは まず、Label Smoothingについて簡単に説明する。 画像分類のタスクにおいては、正解のラベルとしてOne Hotのベクトルを使用する。これは正解のクラスに対応する値だけが1.0でその他は0.0となったもの。 これは当然の様に思えるが、このまま学習させると「過学習を招く」、及び「モデルが自信を持ちすぎてしまう」といった問題があるとして、Inceptionモデルの論文で提案されたのが、Label Smoothingである。 具体的には、学習時のラベルとして「正解のクラスの値は少し割り引いて、減らした値は全てのクラスに均等に分割して加

    Online Label Smoothingの実装と評価 - Qiita
    sh19910711
    sh19910711 2024/05/18
    "One Hotのベクトル: 過学習を招く + モデルが自信を持ちすぎてしまう / Label Smoothing: 正解のクラスの値は少し割り引いて、減らした値は全てのクラスに均等に分割して加える + Inceptionモデルの論文で提案" 2021
  • 機械学習における不均衡データの扱い方

    注意 この記事は Dealing with Imbalanced Classes in Machine Learning を和訳したものです。 元記事中で class imbalance や imbalanced classification などと表現されている概念は、必要に応じて 不均衡データ などの表現に置き換えています。 はじめに 現実世界の分類問題ではしばしば、不均衡データを扱わざるを得ない状況になる場合があります。不均衡データとは、データセットに含まれるインスタンスのクラスが占める割合が均一にならないようなもののことを指します。不均衡データを用いた機械学習では、評価指標と手法の適切な調整が重要で、これが行われないと、あなたが取り組みたい真の目的に対して無意味な指標が最適化されてしまう可能性があります。 例えば、AとBの2つのクラスがあるとします。クラスAがデータセットの90%を

    機械学習における不均衡データの扱い方
    sh19910711
    sh19910711 2024/05/13
    "分類問題を異常検知問題として捉え直す / 異常検知では、データ点の「通常の」分布があると仮定 / 過半数クラスをデータ点の「通常の」分布として扱い、少数クラスのインスタンスを異常なデータ点とみなし" 2018
  • 社内輪講資料 / semi-supervised learning

    2020.05.22 社内勉強会にて発表に使用した資料です。

    社内輪講資料 / semi-supervised learning
    sh19910711
    sh19910711 2024/05/12
    "Smoothness assumption: 2つのデータポイントが近ければ対応する2つのラベルも同一であるはずというもの / Triguero15: pseudo-labeling技術のレビューと分析 / Subramanyaand14: graph-based手法の概要" 2020
  • 多値分類における階層構造を利用したマルチタスク学習とその解釈性 / Multi-task Learning for solving hierarchical multilabel classification and its interpretability - Speaker Deck

    ■イベント 【Sansan×エムスリー】自然言語処理勉強会(ライブ配信あり) https://sansan.connpass.com/event/125652/ ■登壇概要 タイトル:多値分類における階層構造を利用したマルチタスク学習とその解釈性 登壇者:DSOC R&D Group 奥田裕樹 ▼Sansan Builders Box https://buildersbox.corp-sansan.com/

    多値分類における階層構造を利用したマルチタスク学習とその解釈性 / Multi-task Learning for solving hierarchical multilabel classification and its interpretability - Speaker Deck
    sh19910711
    sh19910711 2024/04/27
    "MTL: ラベルのメタ情報を上手く活用したい + 上位構造を推定することで目的とする下位構造の推定が容易になるのでは / MTL-Stack-Concat: Task-specific Layerの入力をShared Layerの出力に加えて単語ベクトルも連結" 2019
  • Facebookチームが開発した画像分類にTransformerを利用した効率モデルDeiTを紹介!

    Facebookチームが開発した画像分類にTransformerを利用した効率モデルDeiTを紹介! 2021.01.10 レポート 学術研究, 画像処理 はじめに FacebookのAIリサーチチームから、画像処理にTransformerを利用して効率化を目指した新たなモデル「Data-efficient image Transformers (DeiT)」が発表されたので、簡単にご紹介します。 ●論文 Training data-efficient image transformers & distillation through attention https://arxiv.org/abs/2012.12877 ●Facebook AI Blog Data-efficient image Transformers: A promising new technique for ima

    Facebookチームが開発した画像分類にTransformerを利用した効率モデルDeiTを紹介!
    sh19910711
    sh19910711 2024/04/23
    "DeiT; Data-efficient image Transformers: 蒸留が行えるようにTransformerアーキテクチャを修正 + 蒸留用のトークン(変換された画像データに沿う形でネットワーク内で学習されるベクトル)が導入" arXiv:2012.12877 2021
  • huggingface/transformers の日本語BERTで文書分類器を作成する - Qiita

    概要 先日、huggingfeceのtransformersで日語学習済BERTが公式に使えるようになりました。 https://github.com/huggingface/transformers おはようござえます、日友達 Hello, Friends from Japan 🇯🇵! Thanks to @NlpTohoku, we now have a state-of-the-art Japanese language model in Transformers, bert-base-japanese. Can you guess what the model outputs in the masked LM task below? pic.twitter.com/XIBUu7wrex — Hugging Face (@huggingface) December 13,

    huggingface/transformers の日本語BERTで文書分類器を作成する - Qiita
    sh19910711
    sh19910711 2024/04/22
    "transformersとPyTorch, torchtextを用いて日本語の文章を分類するclassifierを作成、ファインチューニングして予測するまで / 実装は「つくりながら学ぶ!PyTorchによる発展ディープラーニング」をとても参照" 2019
  • MNIST互換の日本語くずし字データセットでCNNやt-SNEを試す - sw1227’s diary

    1. くずし字データセットとは 2. ダウンロード 3. データを眺める 4. t-SNEによる次元削減 5. CNN(by Keras)による識別 6. まとめ・今後のこと 1. くずし字データセットとは 以前から公開されていた日古典籍データセットでは、デジタル化されたくずし字の画像をダウンロードすることが可能でした。 人文学オープンデータ共同利用センターのニュース(2018/12/08)によると、この日古典籍くずし字データセットを元に、MNISTデータセット互換のくずし字データセット「KMNIST」が公開されたそうです。詳細はGitHubや以下のリンクを参照していただければ良いのですが、おなじみのMNISTデータセットと同様、10クラスに分類できる28x28のグレースケール画像が70,000枚(訓練用60,000・テスト用10,000)提供されています。また、Kuzushiji-4

    MNIST互換の日本語くずし字データセットでCNNやt-SNEを試す - sw1227’s diary
    sh19910711
    sh19910711 2024/04/22
    "KMNIST: くずし字データセット + おなじみのMNISTデータセットと同様、10クラスに分類できる28x28のグレースケール画像が70,000枚 / CNN: くずし字が結構ぐちゃぐちゃに見える割にはよく識別できている" 2018
  • 半教師あり学習のこれまでとこれから - Qiita

    初めまして。新入社員の石川です。 大学と大学院では半教師あり学習を専門にしてきました。今回はそのこれまでの技術と今後についてご紹介します。 半教師あり学習(Semi-Supervised Learning)とは 半教師あり学習は機械学習の手法の一つで、教師あり学習で必要となるデータ形成においてコスト削減を目指します。 まず、機械学習は大きく * 教師あり学習 * 教師なし学習 * 強化学習 の3つが挙げられます。ここでは、教師あり学習と教師なし学習について簡単に説明した後に半教師あり学習について説明していきます。(強化学習は半教師あり学習とあまり関連がないため、別記事を参考にして下さい) 教師あり学習は、学習に必要となる教師データ(および評価データ)について全てのインスタンスにアノテーションと呼ばれるラベル付けの作業が必要です。 例えば、病院に来た患者のレントゲン写真をインプットしたときに

    半教師あり学習のこれまでとこれから - Qiita
    sh19910711
    sh19910711 2024/04/19
    "半教師ありクラスタリング: 一部のデータ間にそれらが同じクラスタに属するかどうかの情報が付加 / PNU Learning: モデル仮定を必要としない半教師あり学習の手法" arXiv:1605.06955 2019
  • 【コード付き】画像用Transformerを利用して衛星画像の分類機械学習モデルを作成する | 宙畑

    色々な分野で応用され始めているTransformerの簡単な解説と実際に衛星画像を利用した雲判定機械学習モデルを作成していきます。 宙畑の2020年Kagglerのアンケート記事でも触れましたが、最近は自然言語処理で使われていたTransformerという技術が、自然言語処理以外の分野でも利用されるようになり、精度の高い結果を出すようになりました。 Kaggleランカーの9人に聞いた、2020年面白かったコンペ9選と論文9選 今回の記事では、Transformer や画像を扱うための Vision Transformer(ViT) についての簡単な解説をおこない、実際に ViT を利用して衛星画像の分類タスクを行います。コードはGoogle Colaboratory(GPU) 上で動かすことを想定していますので、すぐに実行できるようになっています。 Transformer Transfor

    【コード付き】画像用Transformerを利用して衛星画像の分類機械学習モデルを作成する | 宙畑
    sh19910711
    sh19910711 2024/04/13
    "Vision Transformer(ViT): CNNを全く使わずにAttentionのみでモデルが構築 + CNNでは難しかった画像の離れた位置の情報も利用 + 画像を複数枚に分割 / 衛星画像に雲が写っている(cloudy)か、写っていない(clear)かの分類" 2021
  • 機械学習_潜在意味解析_理論編 | DevelopersIO

    概要 こんにちは、データインテグレーション部のyoshimです。 この記事は機械学習アドベントカレンダー20日目のものとなります。 今回は「潜在意味解析(LSA)」という手法を説明してみようと思います。 今回のご説明の流れとして、「潜在意味解析(LSA)」は「トピックモデル」という概念を背景としているものなので、まずは「トピックモデル」についてご説明しようと思います。 その後に「潜在意味解析(LSA)」についてご説明し、「潜在意味解析(LSA)」を発展させたアルゴリズムである「確率的潜在意味解析(pLSA)」、「潜在ディリクレ割り当て(LDA)」、LDAでよく利用されるギブスサンプリングというサンプリング手法、をご紹介しようと思います。 目次 1.トピックモデルとは 2.潜在意味解析(LSA)とは 3.アルゴリズムの流れ 4.確率的潜在意味解析(pLSA) 5.ギブスサンプリング 6.潜在

    機械学習_潜在意味解析_理論編 | DevelopersIO
    sh19910711
    sh19910711 2024/04/12
    "pLSA: 過学習しやすい + その分「今あるデータに対してアドホック的に一回分析する」といった場合はpLSAが適しています / LDA: ハイパーパラメータを求めることで、最終的に求めたい確率密度関数を求める" 2017