タグ

CGに関するvccのブックマーク (6)

  • 理想は“1人で制作できるニュース番組”--ソニー「ニュースマネージャー」の狙い

    ソニーは、文字のニュース原稿を音声とCGに変換し、自動で読み上げる「ニュースマネージャー」の実証実験を、渋谷の大型街頭ビジョン「ソニービジョン渋谷」で実施。その試みや狙いについて聞いた。 ニュースマネージャーは、文字情報として入力されたニュース原稿をソニーのボイステクノロジー(音声対話技術)を応用して自然な音声発話に変換。さらにCGで生成されたデジタルアナウンサーの表情と連動させて読み上げる、ニュースの提供に特化したアプリケーションとして開発されたもの。 実証実験では、共同通信デジタルが提供するニュース原稿を、アニメ制作で知られるA-1 Picturesがデザイン・監修したデジタルアナウンサーが読み上げるというもので、実社会での有用性や、自動読み上げによるニュースの伝わり方などの検証が目的。約2分程度の番組を1日9回放送し、この実験は8月6日から22日までの17日間行われた。 ニュースを読

    理想は“1人で制作できるニュース番組”--ソニー「ニュースマネージャー」の狙い
    vcc
    vcc 2016/08/30
    文字情報として入力されたニュース原稿をソニーのボイステクノロジーを応用して自然な音声発話に変換。さらにCGで生成されたデジタルアナウンサーの表情と連動させて読み上げる。
  • リアルな映像を作るグラフィックス・アルゴリズム

    3次元コンピュータ・グラフィックス(3DCG)の世界で,リアリティは非常に重要なテーマです。リアルな3DCGを作るため,これまで様々な研究/開発がなされ,その成果は映画やビデオ・ゲームなどで誰でも目にすることができるようになっています。そして,現在でもさらなるリアリティの追求のため,日々研究や開発が続けられています。このパートでは,そうしたリアルな3DCGの裏側にある技術の一端をお見せします。 3DCGのリアリティは「形状」「色/質感」「動作」という三つの要素に分けて考えることができます。これらが技術的にどのような難しい点を含んでおり,どのように解決されてきたかは,最後のカコミ記事「3DCGのリアリティを実現する三つの要素」を参照していただくとして,これらの三要素が一定の水準に達したところで浮かび上がってきた,ある問題に焦点を合わせてみましょう。それは自然な動作の大量生成が難しい,という問

    リアルな映像を作るグラフィックス・アルゴリズム
    vcc
    vcc 2012/09/26
    群れを構成するための三つの基本ルール(アルゴリズム)はSeparation(分離)、Alignment(整列)、Cohesion(結束)と呼ばれています。
  • セルシス、人型入力デバイス「QUMARION」を6月より予約受付 ~120fpsで人形の関節データをPCに取り込み可能

  • 【連載】コンピュータビジョンのセカイ - 今そこにあるミライ (11) 「顔検出」を高速化する技術 | エンタープライズ | マイコミジャーナル

    顔検出の高速化1:単純な特徴量「Haar-Like特徴量」による識別器の使用 顔検出はデジタルカメラなどではリアルタイムに顔の位置を検出してくる必要がある処理であります。従って、できるだけ計算量の少ない特徴量を用いていながら、かつパターン認識精度の高い識別器により各探索窓ごとの処理を行う必要があるわけです。 この目的を達成するために顔検出では「Haar-Like特徴量」というシンプルな特徴量を用いてBoostingの学習する強識別器における各弱識別器を作成します。 Haar-Like特徴量の値は、探索窓中の中で計算対象である矩形中の黒色の領域のピクセル値の和の値から白色の領域のピクセル値の和の値を引いただけの非常にシンプルな値です。この矩形の配置場所は探索窓のどこにどう配置しても良い事から、探索窓中に数万通りの配置場所の可能性があることになります。 Haar-Like特徴量 従って、探索窓

  • 写真に基づく3D空間構築手法の到達点 - A Successful Failure

    一昔前は実世界の建築物を元にウォークスルー可能な3D空間を構築しようと思ったら、まず各部屋の形状を計測器を用いて計測し、その計測結果に基づいて人手でモデル化し、領域ごとにテクスチャを貼り、照明を設定して……と気の遠くなるような作業が必要だった。3D空間の構築は極めてコストの高い作業だったが、近年では2次元画像(実写写真)に基づいた3D空間の構築手法が長足の進歩を遂げており、以前に比べれば極めて低コストに3D空間を構築する事が可能となっている。 【告知】Twitterはじめました。@LunarModule7です。 興味のあるかたはフォローくださいとしばらく宣伝。 今ではバラバラに撮影した写真から、全自動で3D空間を構築し、内部を自由にウォークスルーできるようになっている。ワシントン大学とMicrosoft Reseachが2009年に発表した研究*1は現時点における集大成とも言えるものとなっ

    写真に基づく3D空間構築手法の到達点 - A Successful Failure
  • 【コラム】3Dグラフィックス・マニアックス (9) 3Dグラフィックスの概念とレンダリングパイプライン(1) | パソコン | マイコミジャーナル

    ここ最近までの3Dグラフィックスの歴史を大ざっぱに理解したところで、今度は3Dグラフィックスの処理の流れを解説したい。 3Dグラフィックスのパイプラインの模式図 3Dグラフィックスの流れを模式化したのが図1だ。これは、DirectX 10世代/SM4対応GPUまでの流れを模式化しているが、一部の流れの順番はGPUによって異なる場合や、あるいは細かい処理フェーズについては一部、簡略化している部分もある。この点はご了承頂きたい。 まず、どうして3Dグラフィックス処理がこうなっているのかという根的な話について触れておこう。こうなっているのは、長くも短いリアルタイム3Dグラフィックスの歴史の中で、これが最も処理がスムーズに行きそうで、なおかつGPU(ハードウェア)設計としてインプリメントがやりやすいという理由からだ。この流れはDirect3Dでも、OpenGLでも大きな違いはない。 図1: GP

  • 1