Facebook’s newest deep learning system makes samples of images that humans think are real 40% of the time
Researchers at Facebook have taken a step closer to a holy grail of artificial intelligence known as unsupervised learning. They’ve come up with a way to generate samples of real photographs that don’t look all that fake.
In fact, the computer-generated samples — of scenes featuring planes, cars, birds, and other objects — looked real to volunteers who took a look at them 40 percent of the time, according to a new paper on the research posted online yesterday. Facebook has submitted the paper for consideration in the upcoming Neural Information Processing Systems (NIPS) conference in Montreal.
Facebookの研究者は教師なし学習として知られる人工知能の聖杯にまた一歩近づいた。彼らは本物と見まがうほどの写真のサンプルを作り出す方法を生み出した。
機能ネット上に掲載された研究の最新レポートによると、実際、コンピューターが飛行機、車、鳥などを題材にした画像のサンプルを作り、ボランティアの協力者に見せたところ、40パーセントの割合で本物だと思ったという。Facebookはこの論文を近々モントリオールで開かれるニューラルインフォメーションプロセシングシステムNeural Information Processing Systems (NIPS)のカンファレンスに議題として提出している。
Facebookの研究チームは、教師なし学習として知られる人工知能の至高の探求に一歩近づいた。フェイクの画像がなくとも、本物の写真のサンプルを出力する方法を思いついたのだ。
実際に、コンピュータが生成したサンプル(飛行機、車、鳥などを映した光景)をボランティアで参加した人に見せたところ40%の確率で本物に見えたと、昨日Web上に投稿された新しい研究論文に掲載されている。Facebookは近日モントリオールで開催されるNeural Information Processing Systems(NIPS)カンファレンスに向けて、検討材料としてこの論文を提出した。
The research goes beyond the scope of supervised learning, which many startups and large companies, including Facebook, use for a wide variety of purposes.
Supervised deep learning traditionally involves training artificial neural networks on a large pile of data that come with labels — for instance, these 100 pictures show geese — and then throwing them a new piece of data, like a picture of a ostrich, to receive an educated guess, like whether or not the new picture depicts a goose.
With unsupervised learning, there are no labeled pictures to learn from. It’s sort of like the way people learn to identify things. Once you’ve seen one or two cell phones, you can recognize them immediately.
教師ありディープラーニングは従来人口ニューラルネットワークに大量のラベル付きデータ(例:ガチョウの画像100枚)を使って訓練を行い、次いで新たなデータ、例えばダチョウの画像を与え、その新しい画像にガチョウが描かれているかどうかの根拠に基づいた推測を得る。
教師なし学習では、ラベル付きの写真から学ぶことはできない。言ってみれば、人が物を識別できるようになるの同じ方法だ。あなたが一つや二つ携帯電話を見れば、直ちにそれらを認識できるようになる。
従来の教師あり深層学習は、ラベル付けした大量のデータ(例:ガチョウの写真100枚)を元にして人口ニューラルネットワークを訓練し、新しいデータ(例:ダチョウの写真)を生成、そして学習した推測を受け取る(例:新しい写真がガチョウか否か)。
教師なし学習では、学習するのにラベル付き画像を必要としない。人間がモノを認識するようになるのと同様だ。皆さんが1~2個の携帯電話を見たらすぐ識別できるだろう。
Facebook is pursuing unsupervised learning presumably to do a better job of some of the tasks where supervised learning can already be applied: image recognition, video recognition, natural language processing, and speech recognition. But should it move ahead further, whole new uses could be dreamed up.
For now, Facebook is very simply conducting “pure research,” Facebook research scientist Rob Fergus told VentureBeat in an interview.
And that “pure research” is utterly fascinating. Google this week demonstrated that its neural networks can generate downright trippy representations of images — Fergus said they “look super cool” — but fundamentally that work “doesn’t get you any further in solving the unsupervised learning problem,” Fergus said. It’s much harder, he said, to generate images that look real that images that look psychedelic.
To do this, Facebook is using not one but two trained neural networks — one generative, and one discriminative. You give the generative one a random vector, and it generates an image. The second one decides if the output image looks real.
このため、Facebookでは1つではなく2つの訓練済みニューラルネットワークを使っている。1つは生成を担い、もう1つは判断を担う。生成担当に確率ベクトルを投入し、画像を生成する。2番目の方は出力された画像が本物に見えるかを判断する。
これを為すべく、Facebookは1つではなく、2つの訓練されたニューラルネットワークを使用している。1つは生成、もう1つは識別だ。生成ネットワークにランダムベクトルを渡し、写像を生成する。識別ネットワークは出力された写像が本物に見えるかどうかを決定する。
The resulting system can produce tiny 64-by-64 pixel images.
“The resolution is enough to have a lot of complication to the scene,” Fergus said. “There’s quite a lot of subtlety and fidelity to them.”
Naturally, the researchers will be training the system to work with larger and larger images over time.
Read the paper (PDF) to learn about the research in detail. Facebook will release its new code for the work under an open-source license, probably by the end of next week, a spokesman said.
「この解像度は画面を細かく描写するのに十分です」とFergus氏は述べる。「かなり多くの緻密さをもって忠実に表現しています。」
当然ながら、時が経つにつれ(Facebookの)研究グループはシステムがより大きな画像を扱えるようにトレーニングを進めて行く。
本研究の詳細については論文(PDF)をお読み下さい。恐らく来週末までに、Facebookは本件の新しいコードをオープンソースライセンスでリリース致します。とスポークスマンは述べた。
「光景をもっと複雑なものにするのに、解像度は十分です。」とFergus氏は話す。「それらには絶妙な精密さと忠実さが大いに必要となります。」
研究者は必然的に、徐々に写像を大きくできるようシステムを訓練していくことになる。
研究の詳細はこちらの論文(PDF)を読んで欲しい。Facebookはおそらく来週末までに、オープンソースライセンスでこの取り組みの新しいコードをリリースする予定だと担当者が話している。
第三段落、「機能」→「昨日」に訂正します。