「研究」タグアーカイブ

スマートフォンのカメラで血圧を計る研究とそのアプリ

経皮的工学イメージング(Transdermal Optical Imaging)によるスマートフォン血圧測定 というトロント大・杭州師範大学附属医院の共同研究が発表されています。スマートフォンのカメラで撮影するだけで、映った人物の血圧を計るという研究です。

現在のスマートフォンのカメラでも、顔の表皮付近のタンパク質から反射された光を検出できるそう。特に、血液中のヘモグロビンに反射した光を追跡することで、表面近くを流れる血流の変化が取れます。これを機械学習によって処理することで、1328人の被験者の95%程度の正確さで血圧を当てることができたということ。

ただ、この1328人のほとんどが白人系と東アジア系だったということで、今回の検証モデルでは、色が濃い肌の人についてはまだまだ正確に計れないのだそう。

この研究をベースにしたスマートフォン用のアプリ Anura が Android, iPhone 向けに配布されています。

僕の手持ちのスマートフォンは対応していなかったので試せていませんが、現バージョンでは顔の表面を撮影した短い動画から、安静時心拍数とストレスレベルを測定することができるそうです。今回論文発表された血圧測定についても、すべての人が使えるようになるには数年掛かるそうですが、テスト的に搭載されるのも近いかもしれません。

今でも個人が自宅で血圧測定することはできますが、専用の機械はそれなりの値段がしますし、毎日腕に巻いて計り記録をつけるのもたいへんです。既に高血圧と判定されて医者から気をつけるように言われた人ぐらいしか測定はしていないでしょう。

カメラで写すだけで測定できる今回の技術、すべての人種に対する判定の精度があがれば、パソコンのカメラや監視カメラも併せて常に人々の血圧が測定され、健康状態の変化がフィードバックされたり異常な状態が素早く検知されて医療的な対処が提案されたり、というSF的な未来も近づいているのかもしれませんね。

https://itunes.apple.com/app/anura/id1358813934

via Quartz

Speech2Face – 声からあなたの顔つきを当てる研究

声から、喋っている人がどんな顔なのかを推定する、という研究です。

上に並んでいるのが、短文の音声メッセージの話者です。これ左端はダニエル・クレイグ氏(007)ですよね。他はわかりませんが。

サイトで再生ボタンを押すと、推定に使われた音声データが聴けます。10秒も無いぐらいの短い文章です。

そして、下に並んでいるのが、その音声から深層ニューラルネットワークを利用して推定した話者の顔。

学習データとしては、インターネット/YouTube 上の数百万の人が喋っている動画を使ったそうです。「こんな風貌の人は、こんな風に話す」というデータを大量に食わせることで、「こんな風に話す人は、こんな見た目なことが多い」という変換を得たということですね。

推測結果には性別・ジェンダー・人種など繊細な問題が絡むことから、倫理的な注意書きが添えられています。学習データは全人類の平均的な喋り方を集めたのではなく、YouTube などから動画を集めたことから、データには当然バイアスがあります、と。YouTube に出ているような人の喋り方、に偏っているかもしれないし、喋っている言語のサンプルが少なかったりする言語の場合も偏りがあるかもしれない、などなど。

また、話者本人を特定したり、話者のファッション(髪の色やメガネ等)を特定したりは当然できません。(メガネをかけた人特有の話し方、とかない限り)

アプリやブラウザに対して喋ると顔写真を出してくれたり、というお遊びサービスは面白そうですが、その先にどのような実用的な応用がありうるのか。何か面白いことができそうな研究ではありますね。

via Futurism

ペンや筆の動きを推測してコピーできるロボットの研究

ブラウン大学のコタニ・アツノブさんらの研究 Teaching Robots To Draw(ロボットに描き方を教える)は、手書きの文字や絵画をロボットに真似させるというものです。

漢字を含め、ギリシャ語、タミル語、ヒンディー語など様々な文字について、文字のフォントや書き順情報を知っているわけでもなく、書いている途中の様子を見るでもなく、書かれた結果から書き順を推測して、同じような結果になるように書くのだそうです。

動画のデモを見ると、書き順は必ずしも人間が書いたオリジナル通りでもなく、しかし書き終わった結果はオリジナルと似ている、という感じですね。

今の結果としては、単純なコピーや写真の方が複製として優秀なのでしょうけれど、書き順を再現できるということは将来的に契約のサインを真似たり、タッチを含めた名画の複製ができたりする可能性がありますね。まるっきりの複製ではなく筆致が似てるということから、亡くなった書家や画家の新作(風)、みたいな作品もそのうち生まれ得るのかもしれません。

via Tech Explorist

超伝導ダンス – あなたの研究を踊ってみてコンテスト優勝作品

第11回 あなたの博士課程を踊ろう! コンテストの最優秀賞というのが公開されています。

こちら、超伝導理論を研究するカナダ・アルバータ大学のプラモド・ヤパ氏(Pramodh Yapa
)とその仲間たちが6週間掛けて製作したという、超伝導理論を説明するミュージカルダンス

一人一人のダンサーを電子に見立てて踊っています。超伝導状態で二つの電子がクーパー対を形成するというところが、二人組でのダンスに。

説明を聴いても言ってることは難しいですが…

第11回、ということで11年やってるコンテストだそうですが、今年はなんと50個もの応募があったそうです。

最優秀賞の他に、3つの優秀賞も選出されています。

生物学部門から、「脳の意識」

化学部門から、「浸透理論 – 導電プラスティック」

社会学部門から、「物理学を学ぶためのドアとしてのムーブメント」

大学院の専門となると一般の人に話してもなかなか理解されないことも多いと思いますが、自分の研究を紹介してみよう、という気にさせるコンテスト、面白いですね。

via Science Magazine via Winning Science's annual 'Dance Your Ph.D.' contest, physicist depicts electrons swinging on superconducting wires | EurekAlert! Science News

目が見えなくてもレーシングゲームができるようにする研究

コロンビア大学博士課程のブライアン・A・スミスさんが開発しているRacing Audio Display(RAD)は、音の情報だけでビデオゲームを遊べるようにするためのユーザ・インタフェースです。

コースに対する車の角度によって変わる音と、次にどちら向きのどんなカーブが来るかという音声情報の2種類によって、コースをはみでたりせずにコーナーをうまく回ることができるということです。このシステムにょって、目が見えているプレイヤーとそれほど違わない速度を出せ、よく練習した人ならタイムを上回る場合もあるということ。

研究紹介の動画では、画面を横にして隠しても、まったく影響なくレースを続けることができています。

ヘッドフォンから聴こえている情報、をこの動画で体験できるわけではないのですが、実際にどう聴こえるのかも知りたいですね。

研究の今後では、レーシングゲーム部分にライバル車を登場させた上でゲームができるようにしたり、アドベンチャーゲーム、ロールプレイングゲーム、ファーストパーソンシューティングゲームなど他のジャンルにも同様の仕組みを組み込んだりすることだそうです。

via GamesBeat

bikesphere – 自転車の周りに光の結界を張るミシュランの研究

ゴムタイヤとグルメガイドで有名なミシュランのスペイン支社が公開してるBikesphereは、自転車のライトを「より賢く」改良するもの。

動画を見ると、自転車を中心とするような大きな円を、道路上に投映するものだというのがわかります。見た目も普通の自転車ライトの大きさなので、さすがに光量はそれなりで、ぼんやりとした円でしかないのですが。

そしてこのライト、車の接近を感知すると動作を変えます。車が近くに来たな、と検知すると、路上へ投映する光が強く大きくなるようです。この動作切り替えによって、危険のなさそうな時はバッテリーを節約し、必要な時のために持たせることができるのでしょう。

小さくて電池の消費も少なく、安価なセンサがでてきたからこそ実現しそうなデバイスですね。