「画像処理」タグアーカイブ

マジック・ザ・GIFニング – 面白動画を載せたMtGのカードを生成するプログラム

カードゲーム「マジック・ザ・ギャザリング(MtG)」のデータを使ったネタプログラミングが Hacker News で話題となっていました。

Pythonで書かれ、GitHubで公開されているこのツールは、MtGのカードのタイトルに合った内容のアニメーションGIFを埋め込んで、MtGのパロディカードを生成するというプログラム。

生成したカードを定期的にツイッターにつぶやく bot 機能も持っていて、作者自身によるデモアカウント@MTGIFening では、6時間おきに一枚、新作カードが自動投稿されています。

ハウル・フロム・ビヨンド(彼方からの雄叫び)というカード名から生成されたのが、こちらのカード

なるほど、雄たけんでるように見えなくもない。

仕組み

Readme/ソースによれば、このツールの仕組みはこんな感じ。

カードデータの入手

MTG JSONで提供されている、全カードのJSONデータを取得する。そんなデータが有志によって管理されているんですね。これもGitHub上で管理更新されているようです。日本語データファイルもありました

ここからJSONファイルをダウンロードし、それを前処理のスクリプトで必要なレコードのみのcsvを作り、それを使って動いています。

ネタになるアニメーションGIFの入手

アニメーションGIF版 YouTube、みたいなサイトGIPHYAPIが提供されていて、その中にキーワード検索APIもあるので、ランダムに選んだMtGのカードのタイトルを食わせています。タイトルによってはGIFが見つからない場合もあるみたいですが、その時は見つかるまで繰り返しています。

“MtG”で検索して最初にでてきたのがこれ。

Giphy sample

オリジナルのカード画像に、GIFをはめ込む

MtG公式からカード画像を取得し、MoviePyライブラリで、動画の各フレームを書き換えているようです。カードの世代によって画像の位置やサイズが違うので、世代にあわせて埋め込み座標を変えたりもしています。

ツイートする

PythonでTwitterを読み書きするTwythonを使い、生成されたGIFをツイッターに投稿させています。

これらをパッケージする Docker ファイルも置いてあり、自分の環境で簡単に再現できます。ツイッターに投稿するところは動かしませんでしたが、ローカルで動かしてみてできた画像がこちら。

コードも完結で短く、データやAPIを組み合わせてうまく作ってるなと思いました。

via Hacker News

Dreambit – キーワードで写真のヘアスタイルを着せ替えできる実験サービス

Dreambitは、顔写真を加工してくれるサービス。「インド」や「1930」などといったキーワードを与えると、写真に写っている人物の髪型を「インド風」にしたり「1930年代風」に変換してくれます。

(credit: ワシントン大)
(credit: ワシントン大)

ベータアクセスは申請式ということで、とりあえず申請しましたがまだ自分で使えてはいません。髪型やファッションスタイルを表す言葉「以外」の言葉を入れてどんな髪型が出てくるか、試せると面白そうですね。

dreambit-examples

ピカード船長!

デモの動画はこちら。

同じ助教のチームは、2014年に「写真の人が歳を取ったらどんな顔になるか」という画像処理研究を発表しています。

(credit: ワシントン大)
(credit: ワシントン大)

本人の特徴さえ残っていれば、証明写真や記念写真の中の髪型や服装は、後で好きに変更できる、というような時代が来るのかもしれませんね。

さらに研究が進めば、動画の中の人の髪型なども自由に変更できるようになったりするかもしれません。古い映画を現代のファッションで自動リメイクする、といったことも起こるかも。

via Futurity

Fetch! 写真から犬種を当てるiPhoneアプリ

顔写真から年齢を当てるサービスや、顔写真から感情を当てたりするサービスなど、機械学習を活用した実験的サービスを連発しているマイクロソフトのガレージ・プロジェクトから、こんどは犬の写真を使うアプリ Fetch! がiOS向けに登場しました。

犬の写真を撮ると、その犬の種類 – マルチーズとか柴とかブルドッグとか – を推定してくれる、というアプリです。

ウェブサービス版の What-Dog.net もあります。

うちの犬は特に血統書等は無いけど、どの種類に近いのだろう、みたいな疑問にも、答えてくれるかもしれません。

what-dog-wanwan-is-poodle

過去に出したサービスの流れからいくと、犬種じゃなくて「人種を判定するサービス」だったとしてもおかしくないですし、そういう仕組みも作っていたかもしれません。ですが、今の時代にそんなものを作って公開するのは炎上必死でしょうね。犬の血統書だって全ての人が賛同しているものではないのですから。

What Dog A Microsoft Garage Project

カテゴリ: Entertainment, Lifestyle
言語: EN
価格: 無料
バージョン: 1.2.3

開発者: Microsoft Corporation
公開日: 2016年2月11日
評価(全バージョン):
(419人のレビュー)
評価(現バージョン):
(152人のレビュー)

スクリーンショット

screenshot 0screenshot 1screenshot 2screenshot 3

via GeekWire

Megabite – 並んだ食材から福笑いのように顔を作るアルゴリズム

Megabite は、皿に盛った料理の写真をパーツとして、福笑いのように顔を作るアプリだそうです。

考えてみよう、食べ物もハッピーに見えるに越した事はない。あるランチの時、料理で遊んでるときにふと思ったんだ – このプロセスは自動化できるのでは? 解決すべきビッグな問題がここにあるじゃないか。Let’s face it, food is more fun when it looks happy. I was playing with my food one lunchtime, and I wondered to myself – would it be possible to automate this process? Solving the big problems right here.

megabite

このアプリは画像中の皿に乗った食べ物を個別に切り出し、それをより興味深く並べ替えます。

作者の解説するアプリの全行程は以下のようなもの。

  • 食べ物の写真の撮影とリサイズ、丸く切り出し
  • 輪郭の抽出、閉じてない(例: Cのような形の)輪郭の除去
  • 重複した輪郭や多重の輪郭(例: 目玉焼きの中の黄身)の除去
  • 抽出した要素を含む最小の長方形の決定
  • 要素の数に応じた3つの顔型のテンプレートからの選択
  • テンプレート中の要素の形に合わせて、どの食べ物をどこにはめるかの判定
  • 要素に最もフィットする方向に食べ物を回転
  • 食べ物をポップさせたりしながら、回転して最終形を表示する

動画でアプリが動く様子が見られます。

ツールはiPhoneアプリとして作成されていますが、iTunes Storeには見当たらないので一般公開してないか、申請中なのかもしれません。ソースコードがGitHubで公開されているので、自分でビルドすれば試せるかもしれません。

via Hacker News

スマホサイズに16個ものレンズを搭載、コンピューター処理で高画質が得られると主張するカメラ Light L16

Light は、スマートフォンをちょっと分厚くしたぐらいのサイズに、なんと16個ものレンズを収めたという「世界初のマルチ・アパーチャー(開口部)・コンピュテーショナル(コンピューター処理)・カメラ」。

light-phone-concept(credit: Light http://light.co/ )

「スマートフォンサイズながらデジタル一眼レフ並みの写真が撮れる」と自ら語っている Light L16 は、35mm から 150mm までの16個のレンズのうち、同時に最大で10レンズで撮影し、それらのデータをデジタル処理することで、高画質の画像データを生成することができる、と言っています。

light-logo-white-gray-low-res-1(credit: Light http://light.co/ )

その際に処理する画素数は最大で1億3千万ピクセル。最高で5200 万画素の解像度の写真を撮れるといいます。また、被写界深度や露出は撮影の「後で」調整することができます。

(credit: Light http://light.co/ )
(credit: Light http://light.co/ )

米国向けの出荷予定が2016年晩夏。定価$1,699(18万8198円) が今月中の注文で$1,299(14万3890円) 。ただし前金として$199(2万2043円) 分は今すぐ差し引かれます。

台湾の Foxconn パートナーシップを結んでいるということで、工場のものらしき風景も動画には映っています。2013年の創業から2度の出資も受けており、単にヤケクソでレンズを沢山積んでみた、みたいなレベルでは無さそうに感じました。

レンズとセンサがスマートフォンの普及等で劇的に安くなったことで実現したところはあるのでしょうね。

Light L16 で撮影した写真はこちら

via The Verge

中世から現代まで、21万枚の絵画に使われている色の変化をRで可視化したグラフ

過去から現在までの大量の絵画データを使い、「時代の色遣い」があるかどうかを調べようとしたマーティン・ベランダーさん(Martin Bellander)のブログから。

大量の絵画データの取得先は、グーグルのアート・プロジェクトWikiアートなどいくつか候補があったのですが、英BBCのサイト Your Paintings を選んだということです。このBBCのサイトにはイギリスを中心にヨーロッパ絵画が収められていると思われます。

paintings-bbc

21万枚を越える絵画データが閲覧できるということで、Windows上のR言語スクリプトで全絵画ファイルのURLを取得し、そこから、画像ファイル、描かれた年(年代で示されているものは最初の年)、油彩かアクリルかテンペラか混合技法か、などの情報を取得保存しています。

ファイルが壊れているものなどを自動・手動で除去した後で、描かれた年ごとにまとめ、各絵画から100個の点をランダムにサンプリングし、色相・彩度・明度を調べ足しこみます。

colors-history-of-paintings

グラフの左側にある白い部分は、その年代の絵画が無かったからですね。全体的に、絵画に使われている色の多くが赤・オレンジ・黄色で占められているというのがわかります。

また、20世紀に入ってから青や緑の量が増えていることがわかります。これについてもベランダーさんは考察し、いくつか仮説を立てています。

  • 「青」という色や名前が他の色と比べ新しい概念・認識である(Business Insiderの記事)
  • (グラフでカウントしてない)暗い色・黒を、青として取ってしまっている
  • 古い絵画ほど、経年変化で青色の樹脂が失われている
  • 昔は青い絵の具が高価だったが安くなって使われるようになった

他にも、全体的な絵画界の流行としてそうなった要素もあるかもしれませんね。どれも決め手というほどの理由でもなさそうで、コメント欄では議論が続いています。

コメント欄では1914年からの映画ポスターの色を分析したという2012の記事も紹介されていて、絵画だけでなく、20世紀は青色の利用が増えた時代と言えるかもしれません。

via Flowing Data