Notice of Conyac Termination

[Translation from English to Japanese ] Why machine vision is the next frontier for AI The buzz around artificial in...

This requests contains 4917 characters . It has been translated 20 times by the following translators : ( mars16 , umifukuro ) and was completed in 46 hours 41 minutes .

Requested by startupdating at 10 Dec 2015 at 12:52 7637 views
Time left: Finished

Why machine vision is the next frontier for AI

The buzz around artificial intelligence, or AI, has been growing strong over the past year. We’ve never been closer to unlocking the benefits of this technology. 2016 will see new kinds of AI-powered devices as we make progress on one of the most difficult challenges in AI: getting our devices to understand what they are seeing.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:26
AIにとってマシーンビジョンが次のフロンティアである理由

人工知能(AI)をめぐる話題はここ数年増加の一途をたどっている。この技術のメリットがこれほど広く知られるようになったことはかつてない。2016年は、AIで最も難しい課題の1つ、すなわちデバイスが見ているものを理解させるという課題への対処が進展していくにつれ、新たな種類のAIで動くデバイスを目にすることになろう。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 14:03
機械の視覚機能がAIにおける次なる新分野となるのはなぜか

人工知能またはAI関連の話は、昨年以降さらによく聞かれるようになった。この先進技術が生むであろう利益は、今まで手が届かないものだった。AI分野の最難関の一つ、デバイスに見えるものを認識させる機能をにおいて進歩を遂げ、2016年にはAIで動く新型のデバイスが登場するだろう。
startupdating likes this translation
★★★★★ 5.0/1

Why would a machine need to see? Vision is a primary sense and one of the main mediums in which we live our lives. In order for machines to be able to relate to humans and provide the support we need, it is imperative they can observe and behave in the visual realm. This can be in the form of a small camera that helps a blind person “see” and contextualize the world around them or a home surveillance system that can correctly identify the difference between a stray cat, moving tree branches outside, and a burglar.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:36
なぜマシーンは見る必要があるのだろうか?視覚は重要な感覚で、私たちが生きていくのに欠かせない要素の1つだ。マシーンが人間と関わり、必要なサポートができるようにするためには、視覚領域でものを見て行動できなくてはならない。これは例えば、目の見えない人が「見える」よう手助けをして、その人の周りの文脈を提供できるような小さなカメラの形態を取るか、 野良猫や戸外で揺れ動く木の枝と強盗の違いを正しく見分けられる自宅監視システムのようなものとなるだろう。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 14:19
なぜ機械に視覚が必要なのだろうか。視覚は基本的感覚であり、私たちが生活する上での大切な手段の一つである。機械が人間になじみ、私たちが必要とする援助を提供するためには、視覚領域において観察し行動することが必須となる。盲目の人が「見て」、まわりの状況を理解できるよう援助する小型カメラの形をとるか、または野良猫や外にある木の枝の動きと泥棒の違いを正確に認識できる家庭の防犯カメラのようなシステムとなるかもしれない。

startupdating likes this translation
★★★★★ 5.0/1

As devices play a progressively integral part in our daily lives, we have seen an increasing number of applications fail without adequate visual capabilities, including a myriad of midair drone collisions and robot vacuums that “eat” things they shouldn’t.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:40
デバイスが私たちの生活に取り入れられるようになるにつれて、視覚機能が不十分なために応用を失敗したケースをたくさん見てきた。例えば空中でのドローンの衝突や、吸い込んではいけないものを吸い込むロボット掃除機などである。
startupdating likes this translation
★★★★★ 5.0/1
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 14:33
デバイスが私たちの日常生活で不可欠な役割を担うようになるにつれ、無人機が空中で衝突したり、ロボットが「食べる」べきでないものを吸い込むなど、視覚機能が不十分なためにうまくいかないアプリケーションの増加も観察されている。
startupdating likes this translation
★★★★★ 5.0/1

Machine vision, a rapidly growing branch of AI that aims to give machines sight comparable to our own, has made massive strides over the past few years thanks to researchers applying specialized neural networks to help machines identify and understand images from the real world. From that starting point in 2012, computers are now capable of doing everything from identifying cats on the Internet to recognizing specific faces in a sea of photos, but there is still a ways to go. Today, we’re seeing machine vision leave the data center and be applied to everything from autonomous drones to sorting our food.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:50
AIで成長著しいマシーンビジョンは、私たちと同じような視覚をマシーンに与えようとするものだが、特別な神経ネットワークを応用してマシーンが現実世界からのイメージを特定・理解できるようにする研究のおかげでここ数年、かなりの進歩を見せてきた。2012年から始まってコンピュータは今や、インターネット上の猫を見分けることから、たくさんの画像の中から特定の顔を認識することまで、あらゆることができるようになっているが、まだまだとも言える。現在、マシーンビジョンはデータセンターから離れ、自動操縦ドローンや食品の仕分けまであらゆる用途に応用されている。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 14:54
私たちと同様の視覚を機械に与えることを目指し、AIの支流である機械の視覚機能の開発は急速に成長している。機械が現実世界のイメージを判別し理解するのを助ける、特別なニューラル・ネットワークを適用している研究者たちのおかげで、ここ数年のうちにすさまじい進歩を遂げてきた。2012年のそのスタート地点から考えると、今やコンピューターは、インターネット上で猫を特定することから、写真の海から特定の顔を認識することまで、あらゆることが可能になっており、いまだ進歩し続けている。今日、機械の視覚機能はデータ・センターを離れ、自律無人機から食物の仕分けに至るまで、あらゆるものに適用されている。


startupdating likes this translation
★★★★★ 5.0/1

A common analogy to understanding machine vision versus our own can be found when comparing the flight of birds to that of airplanes. Both will ultimately rely on fundamental physics (e.g. Bernoulli’s Principle) to help lift them into the air, but that doesn’t mean a plane will flap its wings to fly. Just because people and machines may see the same things and the way those images are interpreted may even have some commonalties, the final results can still be vastly different.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:59
マシーンビジョンと私たちの視覚を理解するアナロジーとして、鳥と航空機の飛行を比較してみると良い。どちらも最終的には空中に持ち上がるという基本的な物理学に左右されるが (例えばベルヌーイの法則など)、それは飛行機が翼を上げ下げすることを意味しない。 人とマシーンが同じものを見て、その解釈にも一定の共通性があるという理由があっても、最終的な結果は大きく違ってくる可能性がある。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:07
機械の視覚機能と人間のそれとを比較することは、鳥の飛行と飛行機を比較することに類似している。鳥も飛行機も、自らを空中に浮かせるために、結局のところ基礎物理学(例えばベルヌーイの定理など)に依存している。しかし、それは飛行機が鳥のように羽ばたくという意味ではない。人と機械も同様である。同じものを見、イメージを理解する方法にもいくらか共通点があるかもしれないが、最終結果は大いに異なることもありえる。

startupdating likes this translation
★★★★★ 5.0/1

While basic image classification has become far easier, when it comes to extracting meaning or information from abstract scenes, machines face a whole new set of problems. Optical illusions are a great example of how far machine vision still has to go.

Everyone is probably familiar with the classic illusion of two silhouettes facing one another. When a person looks at this image, they aren’t limited to just seeing abstract shapes. Their brain inserts further context, allowing them to identify multiple parts of the image, seeing two faces or a vase, all from the same image.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 16:17
基本的なイメージの分類は簡単にできるようになった一方で、抽象的な状況から意味や情報を抽出する作業となると、マシーンはたちどころに困難に直面する。視覚上の幻覚があるところを見ると、マシーンビジョンにはまだまだ課題が多い。

2つのシルエットがお互い向き合うという昔からある幻覚には馴染みがあることだろう。このイメージを見るとき、抽象的な形状を捉えられないだけにとどまらない。その人の脳は別のコンテキストを挿入して、イメージの複数の部分を認識できるよう、同一イメージから2つの顔あるいは壺状のものを見せるのだ。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:39
基本的イメージの分類はより簡単になる一方で、抽象的な場面から情報や意味を抽出するとなると、機械は新たな一連の課題に直面する。錯視は機械の視覚機能がまだまだ開発途上であることを示す良い例である。

二つのシルエットがお互いのほうを向き合っている古典的なトリックアートを知らない人はいないだろう。人がこの絵をみるとき、単に抽象的な形を見ているだけではない。脳がさらなる脈略を挿入し、画像のあらゆる部分を特定させ、同じ絵から二つの顔か花瓶の形を認識する。
startupdating likes this translation
★★★★★ 5.0/1

When we run this same image through a classifier (you can find several free ones on the Internet), we quickly realize how hard this is for a machine to understand. A basic classifier doesn’t see two faces or a vase, instead, it sees things like a hatchet, hook, bulletproof vest, and even an acoustic guitar. While the system is admittedly uncertain any of those things are actually in the image, it shows just how challenging this can become.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 12 Dec 2015 at 11:08
これと同じイメージを分類器(インターネット上で無料のものを見つけられる)を使って実行してみると、マシーンが理解をするというのはいかに難しいことかを即座に実感できる。ベーシックな分類器は2つの顔か壺を認識できない。その代わり、これを手斧、フック、防弾チョッキ、さらにはアコースティックギターに見てしまう。見たところこのシステムは不確実だが、こうしたものは実際にイメージの中にあるため、ここにはいかに難しい課題があるかを示している。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 15:58
分類ツール(インターネットで無料のものが見つかる)にこの同じ画像を通せば、機械がこれを理解するのがどれほど難しいか、すぐ分かる。基礎的な分類ツールは二つの顔も花瓶も見えず、代わりに斧、フック、防弾チョッキ、アコースティックギターなどに解釈する。システムはそれらのどれも明らかに特定できず、これが機械にとってどれだけの挑戦となるかが伺える。
startupdating likes this translation
★★★★★ 5.0/1

This problem becomes even more difficult if we look at something more complicated, like a painting from Beverly Doolittle. While everyone who sees this image may not be able to spot every face on the canvas, they will almost instantly see there is more to the picture than meets the eye.

Running this image through the same classifier, our results run the gamut from something like a valley or a stone wall to the completely off-base Grifola Frondosa (a type of mushroom) or an African chameleon. While the classifier can understand the general sense of the image, it fails to see the hidden faces within the picture.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 12 Dec 2015 at 11:18
この実験をさらに複雑なもの、例えばBeverly Doolittleの絵などを見ることで実施してみると、問題はさらに困難となる。このイメージを見る人は誰であれ、カンバスに描かれたそれぞれの顔を見分けることはできないかもしれず、その絵に対して、実際目にしているものよりもさらに多くのものを即座に見てしまうだろう。

先ほどと同じ分類器を使ってイメージを見ると、渓谷や石の壁といったようなものから、完全に型崩れしたマイタケ(キノコの一種)やアフリカにいるカメレオンに至るまで、実に幅広いものが見えるという結果が得られた。分類器はイメージの全体的な感覚は捉えられるものの、絵の中に隠された顔を見分けることはできないのだ。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 16:16
Beverly Doolittleの絵のようなもっと複雑なものについて考えるならば、問題はさらに難解になる。この絵を見る人すべてがキャンバスの中の顔を見つけられるわけではないが、それでも人はその目に映る以上のものが絵の中にあることを瞬時に理解する。

この画像を同じ分類ツールに通すと、谷や石垣のようなものから完全に的外れなマイタケやアフリカのカメレオンまで網羅した結果になる。分類ツールは画像の一般的な感覚は理解できるが、絵の中の隠れた顔を見つけられない。
startupdating likes this translation
★★★★☆ 4.0/1

To understand why this is such a challenge, you need to consider why vision is so complex. Just like these images, the world is a messy place. Navigating the world isn’t as simple as building an algorithm to parse through data, it requires experience and understanding of real situations that allow us to act accordingly.

Robots and drones face a myriad of these obstacles that may be out of the norm, and figuring out how to overcome these challenges is a priority for those looking to capitalize on the AI revolution.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 12 Dec 2015 at 11:26
どうしてこのような問題が起きるかを理解するためには、視覚が複雑である理由を考えなくてはならない。この3つのイメージのように世界は乱雑ともいえる場所である。世界をナビゲートするのはデータで説明するためのアルゴリズムを構築するほど単純なものではなく、結果をもとに行動できるよう、現実の状況の経験と理解が求められる。

ロボットやドローンは数多くの想定外の障害に直面するが、AI革命でキャピタライズしようとしている人は、こうした問題の克服方法を理解することが最優先の課題となる。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 16:44
視覚力の複雑さを考えるなら、なぜこの機能がそれほど挑戦となるのかが理解できるだろう。先ほどの画像のように、世界は乱雑な場所である。この世界に生きていくことは、データを通して解析するアルゴリズムを構築するように単純なものではない。経験を積み、現実の状況を理解し、それに基づいて行動することが求められる。

ロボットと無人機は、こうした基準外の障害に何度も直面する。そして、これらの挑戦を克服する方法を見つけることが、AI革命に投資しようと注目している人々にとっての優先事項である。
startupdating likes this translation
★★★★★ 5.0/1

With the continued adoption of technologies like neural networks and specialized machine vision hardware, we are rapidly closing the gap between human and machine vision. One day soon, we may even start to see robots with visual capabilities going above and beyond our own, enabling them to carry out numerous complex tasks and operate completely autonomously within our society.

Remi El-Ouazzane is CEO of Movidius, a startup combining algorithms with custom hardware to provide visual intelligence to connected devices.

mars16
Rating 60
Native
Translation / Japanese
- Posted at 12 Dec 2015 at 11:33
神経ネットワークや特別なマシーンビジョンハードウェアといった技術の採用が続く中、人間とマシーンの視覚の間にあるギャップは急速に縮まりつつある。近い将来、視覚機能を備えたロボットが私たち人間の能力を超え、多くの複雑なタスクをこなし、私たちの社会の中で全自動でオペレーションを行う日が来るかもしれない。

Remi El-Ouazzane氏はMovidius社という、アルゴリズムとカスタマイズされたハードウェアを組み合わせてコネクテッドデバイスにビジュアルインテリジェンスを提供するスタートアップのCEOである。
startupdating likes this translation
umifukuro
Rating 58
Native
Translation / Japanese
- Posted at 11 Dec 2015 at 17:00
ニューラル・ネットワークと視覚的機能を専門化したハードウェアのような技術の適用を続けることで、私たちは人と機械の視覚機能の間にあるギャップを急速に縮めている。遠からぬいつか、私たちの社会では、複雑かつ多様なタスクをこなし完全に自律操作の可能な、人の視覚能力を超える視覚力を備えたロボットが登場するかもしれない。

Remi El-Ouazzane氏はMovidiusのCEO。Movidiusはデバイスに繋げる視覚知能を供給するため、アルゴリズムとカスタムメイドのハードウェアを結合するスタートアップ。
startupdating likes this translation
★★★★★ 5.0/1

Client

2015/01/21 数字表記についてアップデート済
THE BRIDGE(旧StartupDating)からの記事の依頼です。Tech in Asia、TechNode、e27などの記事の翻訳を依頼します。
必ず、以下のガイドラインに沿って翻訳してください。

*1行目はタイトルの場合がほとんどなので、それらしいヘッドラインにする
*文末を「〜だ、〜である」調の文体
*会社名、人名、プロダクト名などの固有名詞は英語名のまま。日本の人名や会社名の場合は日本語表記。
(Facebook、WeChat、Alibaba、iPhone、Google、Androidなど)
*人名には「氏」をつける
*英語名の両端に半角スペースなどを入れない
*インタビュー中では「~です、~ます」調の文体
*インタビューには「」をつける
*数字は半角
*$:米ドル(例:US$250 million→2億5000万米ドル、15,000→1万5000 etc)
*()括弧は全角


・startup:スタートアップ
・infographic:インフォグラフィック
・pitch:ピッチする
・conference:カンファレンス
・launch:ローンチ、ローンチする
・ecosystem:エコシステム
・user:ユーザ
・traction:トラクション
・e-commerce:eコマース
・angel investor:エンジェル投資家
・serial entrepreneur:シリアルアントレプレナー
・disruptive:震撼させるような、揺るがすような、革命を起こすほどのetc -> スタートアップシーンでは度々使われる単語です。単語で訳すのではなく、都度コンテクストと合わせて文章として意味が通じるように訳してください。
・monetize:マネタイズする

Additional info

依頼者プロフィール欄の翻訳ガイドラインに必ず沿って翻訳してください。

該当記事です。
http://venturebeat.com/2015/12/05/why-machine-vision-is-the-next-frontier-for-ai/

Try “Standard Translation” for specialized translation such as business purpose.

  • We can receive files such as Word, Excel, and PowerPoint.
  • There is no maximum word limit, and we deliver translations fast.
  • Higher-skilled translators will work on your request.

Feel free to contact
anytime