VR中心、雑記ブログ

ブログ名は適当。あとで変えるかも。

アダルトVR動画撮影についてのインタビューがおもしろかった

www.moguravr.com

www.moguravr.com

 

色々と興味深かったので、以下いくつか気になったところピックアップ。

実際に店舗でVR体験したお客様にヒアリング調査をしたのですが、Amazonなどでたくさんの多種多様なVRゴーグルが販売されている現状で、お客様はどれを買えば良いのか迷ってしまい、もう面倒だから「VRを諦めた」という方もいるという調査結果が出ました。

このインタビューしてるVRニュースサイトのMogura VRもたびたびスマホ用VRゴーグルの比較おすすめ記事を出しているが、あれって重要なんだな。まあもちろん、検索しておすすめとか調べるのも面倒くさいって人もいるのだろうけど。

AV男優のジャンルにVR男優という特殊なものが出てきている

これについても非常に興味深かった。VRAVを見ているとなんか下に体は映っているのに、カメラは顔の位置にあるっぽいし、どうなってるんだろう?なんか特殊な装置使ったり編集したりしているのかな、と思っていたのだけど、単純に男優さんがすごい姿勢をしているらしい。首をひねって女優さんの方がなかなか見られない状態らしく、その状態で興奮を維持して、さらに声を出すのは厳禁というかなり特殊技術がいるらしく、「VR男優」というものが出てきている、と。

金井:演出面になるのですが、VR作品だと基本的に男優さんは喋らないですね。男優さんが喋ってしまうと視聴者の方が「俺こんなこと言わないよ」と思ってしまい、没入感が下がってしまいます。


──それは凄い分かります。サガりますよね。

 

金井:そのため女優さん一人が喋る作品が多いです。受身の作品が多い女優さんの中には、自分から攻めるのに慣れていないため、VR撮影に苦戦する方もいますね。主観モノなどの作品に出演されてきた女優さんなどはVR撮影が得意だったりします。また、一人喋りなので、演技が上手い女優さんの作品は自然と没入感が得られるので、人気になります。

これもおもしろい。AVとかだと「女優」とは言っているが、かわいかったり胸が大きかったりすれば演技がダメでもそこそこ人気は出るが(とはいえ、人気のAV女優さんはやはり演技も上手い人が多いと思うが)、VRAVだと「演技力」というのが、かなりのポイントになると。また、VRAVだと女優さんの「体の柔らかさ」とかも重要になってくると。おもしろい。

この後、「あり得ないけれどももしかしたらあり得るかも」っていうシチュエーションが人気なのではとか、実際の行為に入る前の導入の演出というのがVRAVでは重要とか、これまでスマホの容量の問題で長尺の作品がなかなか出なかったけどDMMがPSVRでのストリーミングとかに対応したことで長いものも出てくるようになったとか、色々な話が出てくるのだけどおもしろかった。

 

 

多分、まだ黎明期なので、個人的な技術というのがすごく重要な時期なのだと思う。だから特殊な技術を持っている男優さんが業界で「あいつはうまいぞ」という事になり、仕事が来ることになったり、まだまだどうすればいい感じの作品が撮れるかっていうのがマニュアルみたいになっていないため監督の個人技能に頼らざるを得ず、「監督買い」が起きていたり。あとは、多分だけどまだVRAV、それも日本のものってあんまりネットに違法アップロードされたりしていないのではないだろうか?少なくとも、普通のAVのような惨憺たる状況にはなっていないと思う。いずれブラウザやサイト、HMDがVRのある社会に完全に対応したらVRAVの違法サイトとかも繁盛する事になってしまうのではないかと思うが、現在はまだ色々とハードルが高い。だから見たいという人は購入しなければならず、だからこそ市場としておもしろい状態になっているのではないか?みんなに熱意があるというか。作る側もそうだし、見る側もみんな金を出すので真剣というか。真剣な現場の話はやっぱりおもしろいですね。

Googleとカリフォルニア大学バークレー校が最新の人工音声生成モデルを発表

shiropen.com

 

Googleとカリフォルニア大学バークレー校の研究者が、新しい人工音声生成モデルを論文として発表したらしい。 

最近の人工音声については以下のエントリでまとめた。

 

voya.hatenablog.com

 

これの一番下にあるWaveNetなどを発展させたものらしい。

で、実際にどんな感じなのかというと、こんな感じ。

Audio samples from "Natural TTS Synthesis by Conditioning WaveNet on Mel Spectrogram Predictions"

上のページで聴くことが出来るのだけど、もはや人間と見分け(聞き分け?)ができない。最後に人間が発声しているのと、このモデルが発声しているのを並べているのだけど、本当にどっちがどっちなのかわからない。

一応、外国語であるから、日本語ならばある程度違和感とかもわかるのかもしれない、とも思うのだけど、でも正直これ英語の参考書とかについてくるネイティブが発音しているCDの中身がこのモデルと入れ替わっていても俺はまったく気付かないと思う。まあまだ問題はあるようなので、「今すぐ参考として100%使える!」というわけじゃないのだろうけれども、いずれGoogle翻訳の発声が超リアルになる未来は近いのではないかと思う。

(とはいえ、大分音質下げているようだからそれが上がるとどうなるのかはちょっと気になる。)

northwood.blog.fc2.com

 

うーん、Ryzen 2が12core/24Threadで、さらに周波数もかなりの高さで書かれている公式っぽい画像が、KitGuruの編集者の方?が「今週のまとめ」みたいな事を話している動画でいきなりチラッと掲載されている、ということらしい。

いかにも公式っぽい画像なんだけど、本当にKitGuruがこの画像をどこかから手に入れたのならもっと大々的に記事にするんじゃないかと思うんだけど、でもこの動画の位置づけもよくわからんからなんとも言えない。

 

まあRyzen 2は来年早々には発表されるっぽいので、そちらを待ちましょう。

 

さらにこの方、最新の動画では自身が「怪しい情報」と言いながらも、28coreの「Core i11」がインテルから登場するという情報も紹介しているようで。一応「AMDがもしもEPYCをデスクトップマーケットにおろしてくる事を計画しているのならば、対抗としてインテルがそういったことをしてもおかしくはない」と予想しているようです。

 

いずれにしろ、最近はCPU関連の動きが活発になっていて、とてもおもしろいですね。

www.kurzweilai.net

 

ふむ、量子コンピュータができあがると既存のパスワードは役に立たなくなると言われているが、まあやっぱ量子コンピュータ時代に備えて、安全性を高める研究も進んでいるんだな。

あと最近思っているのは、量子コンピュータというものすごい計算能力が登場すると、ブロックチェーンの仕組みの安全性って担保されるのか?という。一応「計算能力の問題で事実上台帳の書き換えが不可能」というのがブロックチェーンの安全性を担保していると思うのだが。

まあ誰かこのあたりのことも考えているのだろうな。

www.moguravr.com

 

これ、実際のところVR内ではVR内なりの「デスクトップ」というかすでにもはや「デスクトップ」ではまったくない何か新しい作業空間が必要だというのはわかるのだけど、このあたりは各社現在模索しているところですよね。

というか、何よりもこのような作業空間にはある程度の「文字の可読性」が必要だと思うのですが、そのあたり現行世代はまだまだなので、次世代とかでようやく使い物になるんじゃないですかね。それとも、文字を大きくすればそれなりに使えるのだろうか?現在バーチャルデスクトップでパソコンのモニタの画面をそのまま表示して作業しようとするとかなりの苦痛です。全体が見渡せるように小さくすると文字が読めず、文字が楽に読めるくらい画面を近づけるとでかすぎて首を動かしまくることになります。

これをそのままで楽に作業が出来るくらいにしたいとなるとVRHMDのモニタをもっと高精細にする必要があるでしょう。

しかし、そもそもの問題として現在のデスクトップ画面をそのまま持ち込んでVR内で再現する必要はないわけで、上の記事に載っている動画でもブラウザの画面を自由に配置できるようにしたりしていますが、でもなんかそれもいまいちな気もするのですが、どうすればいいのかは思いつきません。結局は現行のマイナーアップデートみたいな形で対応する他ないのかも知れませんが。

 

まあつまり、このあたりってまったくもって過渡期なんで、5年後とかにはどうなっているか楽しみですね。

Ampereかー。まあ、Voltaが学術とかデータセンターとか用で、Ampereがゲーマー向け、と分けるのだとするとわかりやすいが。

まあ、すべては来年だな。来年入ったらきっともう少し色々な噂話が出てくるだろう。楽しみだ。

 

追記:なんの話か書き忘れた。これです。

northwood.blog.fc2.com

「思考読み取り」が可能に?fMRIの脳の画像から何を見ているかわかるように

www.kurzweilai.net

 

fMRIの脳の画像から、その人物が何を見ているかがわかり、ある程度再現する研究をパデュー大学が発表したとのこと。

ちょっと驚いた。どういうこと?と思ったのだけど、「実際に見ているもの」と「脳の画像」をディープラーニングで教え込んだところ、「脳の画像」から「何を見ているか」がある程度わかり、さらにその見ているものをある程度再現することができた、ということらしい。どうやら、脳のfMRIの血流量とかから判断しているようだ。

具体的には下の画像の感じらしい。

f:id:voya:20171028170647p:plain

左が実際に見ていた映像で、右がfMRIから再現した映像。で、さらに右の単語が、見ているものの推測。「再現できた」といっても、左側にぼんやりなにかがあるな、くらいではあるし、推測も完璧ではない(とはいえ多分赤文字で強調されているのが可能性の高い推測であり、それは外していない)。

しかしこれ発展していったら色々な事に応用できそうではある。正直ちょっと怖い気持ちもある。

パデュー大学がアップロードした動画。

www.youtube.com