Deep learning is set of algorithms in machine learning that attempt to learn layered models of inputs, commonly neural networks. The layers in such models correspond to distinct levels of concepts, where higher-level concepts are defined from lower-level ones, and the same lower-level concepts can help to define many higher-level concepts.
Deep learning is part of a broader family of machine learning methods based on learning representations. An observation (e.g., an image) can be represented in many ways (e.g., a vector of pixels), but some representations make it easier to learn tasks of interestfrom examples, and research in this area attempts to define what makes better representations and how to learn them.
ディープ・ラーニング(Deep learning)は、一般に神経ネットワークである、入力の層状モデルを学ぼうとする機械学習の一連のアルゴリズムです。
そのようなモデルの層は、概念のはっきり異なる各レベルにつながっており、そこでは、より高レベルの概念はより低レベルのものから定義され、同一のより低レベルの概念が、多くのより高レベルの概念の定義を助けることができます。
ディープ・ラーニングは、より幅広い族の、学習表明に基づく機械学習方法の部分です。
ある観察(例えば、あるイメージ)は、様々な方法(例えば、あるピクセルのベクトル)で表明されることができますが、その中には、例から関心のある課題を学ぶことをより容易にする表明があり、この領域の研究は、何がより良い表明となり、かつ、どのようにそれを学ぶべきかを定義しようとするものです。
The term "deep learning" gained traction in the mid-2000s after a publication by Geoffrey Hinton[2][3] showed how a many-layered neural network could be effectively trained one layer at a time, treating each layer in turns as a restricted Boltzmann machine. Although the backpropagation algorithm had been available for training neural networks since 1986, it was often considered too slow for practical use.[2] As a result, neural networks fell out of favor in practical machine learning and simpler models such as support vector machines dominated much of the field in the 1990s.
「ディープ・ラーニング(深い学習、deep learning)」という用語は、2000年代半ばに勢いを増しました。ジェフリー・ヒントン[2][3]による公表文献が、どのようにして、多層状のニューラル・ネットワークが、同時に、効率的に訓練された1枚の層でありえるかを示した後のことです。それは、各々の層を、順番に、制限されたボルツマン機械として扱うというものでした。1986年以降、誤差逆伝播アルゴリズムがニューラル・ネットワークの訓練に利用できたのですが、しばしば、実際の使用にはあまりに遅すぎるとみなされました.[2] 結果として、ニューラル・ネットワークは実際の機械学習での支持を落とし、サポートベクターマシンのようなより単純なモデルが、1990年代にこの分野の大半を支配しました。