RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @rahulsaini07: Why do both Cheap and #DeepLearning work so well? https://t.co/GwYeWR8XMZ #BigData #MachineLearning HT ahier https://t.co…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
Why do both Cheap and #DeepLearning work so well? https://t.co/GwYeWR8XMZ #BigData #MachineLearning HT ahier https://t.co/glTJ6uBZSQ
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
RT @KirkDBorne: Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/…
Why do both Cheap and #DeepLearning work so well? https://t.co/zT3IkCT4Wn #BigData #MachineLearning HT @ahier https://t.co/1Qczx3Lnj6
RT @ahier: #DeepLearning + cheap learning works well https://t.co/rGYIThkjNg #MachineLearning #NeuralNetwork Eventually #AI https://t.co/lz…
RT @ahier: #DeepLearning + cheap learning works well https://t.co/rGYIThkjNg #MachineLearning #NeuralNetwork Eventually #AI https://t.co/lz…
#DeepLearning + cheap learning works well https://t.co/rGYIThkjNg #MachineLearning #NeuralNetwork Eventually #AI https://t.co/lzrQG3EmpK
RT @tegmark: Why does #deeplearning work so well? Part of the answer is physics! So say Henry & Max: https://t.co/uejC7mJcJ1 https://t.co/…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
[1608.08225] Why does deep and cheap learning work so well? https://t.co/dx7ZsOrC4N
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
#DeepLearning explained by physicists https://t.co/OcHKIFbAl9
[1608.08225] Why does deep and cheap learning work so well? https://t.co/U3f9dbiMTC
I'm going to read this paper slowly and fully. Until I fully understand it. You should too. It's excellent. https://t.co/AeNdIAOUAV
RT @petewarden: Why does deep and cheap learning work so well? https://t.co/NtlQxFVeAp
RT @petewarden: Why does deep and cheap learning work so well? https://t.co/NtlQxFVeAp
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
"Why does deep & cheap learning work so well?" https://t.co/mN4rIiENDj #datascience #machinelearning #bigdata #devs https://t.co/65H2A7tU2h
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
“[1608.08225] Why does deep and cheap learning work so well?” https://t.co/rsEc5Y0dIq
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @MariaSpiropulu: Applied Math/Physics/Computation/Engineering/Neuroscience:all part of Deep Learning success and promise- physics&DL ht…
RT @kshameer: Why does deep and cheap learning work so well? It's all in the math! https://t.co/cyJfHtzumy #bioinformatics https://t.co…
Applied Math/Physics/Computation/Engineering/Neuroscience:all part of Deep Learning success and promise- physics&DL https://t.co/GeRdwcKNSX
.@SimonDeDeo Lin & Tegmark explanation is the pinnacle of natural philosophy Keep an eye on it https://t.co/g59i4twn0b
Why does deep and cheap learning work so well? https://t.co/cLm5fpnHvT
RT @petewarden: Why does deep and cheap learning work so well? https://t.co/NtlQxFVeAp
RT @antonioneme: Why does deep learning work so well? Another step towards a better understanding of deep learning networks. https://t.co/U…
RT @rkmt: geek learning RT @1T0T: deep and cheap learning なんて僕が言ってもオヤジのダジャレにしかならないから英語圏ずるい https://t.co/WE4eRQF17A
geek learning RT @1T0T: deep and cheap learning なんて僕が言ってもオヤジのダジャレにしかならないから英語圏ずるい https://t.co/WE4eRQF17A
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
deep and cheap learning なんて僕が言ってもオヤジのダジャレにしかならないから英語圏ずるい https://t.co/tanybjx82S
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
チープラーニングという言い回しが格好いい→ https://t.co/OEVzR7pPLM Why does deep and cheap learning work so well? Henry W. Lin (Harvard), Max Tegmark (MIT)
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
@AudacityOfHoops @techreview Did you read the whole paper? I think it's pretty well done. https://t.co/W8XSOfoVEd https://t.co/ypIq1zIvXI
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @linnylin92: Back at school! #deeplearning explained using statistical mechanics! Looks fascinating! #ML https://t.co/AzleKKDhZ1 https:/…
Why does deep and cheap learning work so well? Physics insights https://t.co/GeEUDOCmVs
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
Interesting paper: "Why does deep and cheap learning works so well?" Provides reasons based on physics https://t.co/QO9Jgd5Luc #deeplearning
@boredyannlecun I'd love to read a #torched review of https://t.co/LDqCw914a4 In more than 140 characters if possible!
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @_jesusmcortes: physics of ML, nice article, https://t.co/q7mBr3uLSa
physics of ML, nice article, https://t.co/q7mBr3uLSa
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
Why does deep and cheap learning work so well? https://t.co/FtRAbIQPoY
RT @deliprao: Two physicists walk into a Machine Learning bar, and confuse everyone with their terminology https://t.co/OXICtHdkfK https://…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @wahyuwei: Why does deep and cheap learning work so well? https://t.co/JBDOpHzqU2
Why does deep and cheap learning work so well? https://t.co/JBDOpHzqU2
RT @fperez_org: Q. for deep learning experts: is Thm in p.4 of https://t.co/bXdEGbQ2Xe really a new result? Neat... Notebook implem: https:…
RT @fperez_org: Q. for deep learning experts: is Thm in p.4 of https://t.co/bXdEGbQ2Xe really a new result? Neat... Notebook implem: https:…
Machine learning modeled as physical system: "Why does deep and cheap learning work so well?" https://t.co/LHqjhnspnZ
RT @fuchsto: Machine learning modeled as physical system: "Why does deep and cheap learning work so well?" https://t.co/LHqjhnspnZ
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
Why does deep and cheap learning work so well? https://t.co/jFHIeYxLva
RT @fperez_org: Q. for deep learning experts: is Thm in p.4 of https://t.co/bXdEGbQ2Xe really a new result? Neat... Notebook implem: https:…
A compelling and great paper on "Why does deep and cheap learning work so well?" by Liu & Tegmark https://t.co/y4khwabz47
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @tegmark: Why does #deeplearning work so well? Part of the answer is physics! So say Henry & Max: https://t.co/uejC7mJcJ1 https://t.co/…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…
RT @hillbig: 深層学習がうまくいくのは、自然界の 対象の問題の特徴に低次元、局所影響性、対称性がみられ、データ生成過程にマルコフ性が成り立ち、逆向きに推論できるから。自然にみられるデータの特徴付けに物理の考えで切り込んだ物理界20歳すごい。 https://t.co…