Notice of Conyac Termination ( Updated on November 25)

[Translation from English to Japanese ] Facebook’s newest deep learning system makes samples of images that humans th...

This requests contains 2977 characters . It has been translated 10 times by the following translators : ( isshi , greene , anna_claba ) and was completed in 8 hours 28 minutes .

Requested by startupdating at 22 Jun 2015 at 11:23 4678 views
Time left: Finished

Facebook’s newest deep learning system makes samples of images that humans think are real 40% of the time

Researchers at Facebook have taken a step closer to a holy grail of artificial intelligence known as unsupervised learning. They’ve come up with a way to generate samples of real photographs that don’t look all that fake.

In fact, the computer-generated samples — of scenes featuring planes, cars, birds, and other objects — looked real to volunteers who took a look at them 40 percent of the time, according to a new paper on the research posted online yesterday. Facebook has submitted the paper for consideration in the upcoming Neural Information Processing Systems (NIPS) conference in Montreal.

Facebookの最新深層学習システム、人間が40%の確率で本物に見える画像サンプルを生成

Facebookの研究チームは、教師なし学習として知られる人工知能の至高の探求に一歩近づいた。フェイクの画像がなくとも、本物の写真のサンプルを出力する方法を思いついたのだ。

実際に、コンピュータが生成したサンプル(飛行機、車、鳥などを映した光景)をボランティアで参加した人に見せたところ40%の確率で本物に見えたと、昨日Web上に投稿された新しい研究論文に掲載されている。Facebookは近日モントリオールで開催されるNeural Information Processing Systems(NIPS)カンファレンスに向けて、検討材料としてこの論文を提出した。

The research goes beyond the scope of supervised learning, which many startups and large companies, including Facebook, use for a wide variety of purposes.

Supervised deep learning traditionally involves training artificial neural networks on a large pile of data that come with labels — for instance, these 100 pictures show geese — and then throwing them a new piece of data, like a picture of a ostrich, to receive an educated guess, like whether or not the new picture depicts a goose.

With unsupervised learning, there are no labeled pictures to learn from. It’s sort of like the way people learn to identify things. Once you’ve seen one or two cell phones, you can recognize them immediately.

本研究は教師あり学習の範疇を超える。教師あり学習は、Facebookを含む多くの大企業やスタートアップが広範囲にわたる目的で利用している。

従来の教師あり深層学習は、ラベル付けした大量のデータ(例:ガチョウの写真100枚)を元にして人口ニューラルネットワークを訓練し、新しいデータ(例:ダチョウの写真)を生成、そして学習した推測を受け取る(例:新しい写真がガチョウか否か)。

教師なし学習では、学習するのにラベル付き画像を必要としない。人間がモノを認識するようになるのと同様だ。皆さんが1~2個の携帯電話を見たらすぐ識別できるだろう。

Facebook is pursuing unsupervised learning presumably to do a better job of some of the tasks where supervised learning can already be applied: image recognition, video recognition, natural language processing, and speech recognition. But should it move ahead further, whole new uses could be dreamed up.

For now, Facebook is very simply conducting “pure research,” Facebook research scientist Rob Fergus told VentureBeat in an interview.

Facebookは教師なし学習を追求しており、画像認識、動画認識、自然言語処理、音声認識など、教師あり学習が既に適用可能な処理の一部で、より大きな効果を発揮すると推定している。さらに先を見れば、全く新しい可能性の夢が広がっている。

現段階では、Facebookはただ「純粋な研究」を行っているだけである、と同社リサーチ科学者のRob Fergus氏はVentureBeatのインタビューで述べた。

And that “pure research” is utterly fascinating. Google this week demonstrated that its neural networks can generate downright trippy representations of images — Fergus said they “look super cool” — but fundamentally that work “doesn’t get you any further in solving the unsupervised learning problem,” Fergus said. It’s much harder, he said, to generate images that look real that images that look psychedelic.

To do this, Facebook is using not one but two trained neural networks — one generative, and one discriminative. You give the generative one a random vector, and it generates an image. The second one decides if the output image looks real.

そして「純粋な研究」は非常に魅力的である。Googleは今週彼らのニューラルネットワークが非常に幻覚的な画像表現を生成できることをでモンストレートした。Fergus氏は「その画像をとてもクールです」と評するが、根本的なところで「教師なし学習の問題を解くという点では何も前進していません」とも語っている。本物にも見えサイケデリックでもある画像を生成するのはもっと難しいことなのです、と同氏は述べる。

このため、Facebookでは1つではなく2つの訓練済みニューラルネットワークを使っている。1つは生成を担い、もう1つは判断を担う。生成担当に確率ベクトルを投入し、画像を生成する。2番目の方は出力された画像が本物に見えるかを判断する。

The resulting system can produce tiny 64-by-64 pixel images.

“The resolution is enough to have a lot of complication to the scene,” Fergus said. “There’s quite a lot of subtlety and fidelity to them.”

Naturally, the researchers will be training the system to work with larger and larger images over time.

Read the paper (PDF) to learn about the research in detail. Facebook will release its new code for the work under an open-source license, probably by the end of next week, a spokesman said.

その結果(Facebookの)システムでは64x64ピクセルとごく小さい画像を生成できる。

「この解像度は画面を細かく描写するのに十分です」とFergus氏は述べる。「かなり多くの緻密さをもって忠実に表現しています。」

当然ながら、時が経つにつれ(Facebookの)研究グループはシステムがより大きな画像を扱えるようにトレーニングを進めて行く。

本研究の詳細については論文(PDF)をお読み下さい。恐らく来週末までに、Facebookは本件の新しいコードをオープンソースライセンスでリリース致します。とスポークスマンは述べた。

Client

2015/01/21 数字表記についてアップデート済
THE BRIDGE(旧StartupDating)からの記事の依頼です。Tech in Asia、TechNode、e27などの記事の翻訳を依頼します。
必ず、以下のガイドラインに沿って翻訳してください。

*1行目はタイトルの場合がほとんどなので、それらしいヘッドラインにする
*文末を「〜だ、〜である」調の文体
*会社名、人名、プロダクト名などの固有名詞は英語名のまま。日本の人名や会社名の場合は日本語表記。
(Facebook、WeChat、Alibaba、iPhone、Google、Androidなど)
*人名には「氏」をつける
*英語名の両端に半角スペースなどを入れない
*インタビュー中では「~です、~ます」調の文体
*インタビューには「」をつける
*数字は半角
*$:米ドル(例:US$250 million→2億5000万米ドル、15,000→1万5000 etc)
*()括弧は全角


・startup:スタートアップ
・infographic:インフォグラフィック
・pitch:ピッチする
・conference:カンファレンス
・launch:ローンチ、ローンチする
・ecosystem:エコシステム
・user:ユーザ
・traction:トラクション
・e-commerce:eコマース
・angel investor:エンジェル投資家
・serial entrepreneur:シリアルアントレプレナー
・disruptive:震撼させるような、揺るがすような、革命を起こすほどのetc -> スタートアップシーンでは度々使われる単語です。単語で訳すのではなく、都度コンテクストと合わせて文章として意味が通じるように訳してください。
・monetize:マネタイズする

Additional info

依頼者プロフィール欄の翻訳ガイドラインに必ず沿って翻訳してください。

該当記事です。
http://venturebeat.com/2015/06/19/facebooks-newest-deep-learning-system-makes-samples-of-images-that-humans-think-are-real-40-of-the-time/

Try “Standard Translation” for specialized translation such as business purpose.

  • We can receive files such as Word, Excel, and PowerPoint.
  • There is no maximum word limit, and we deliver translations fast.
  • Higher-skilled translators will work on your request.

Feel free to contact
anytime