RT @philomyu: ニューラルネットワークという機械学習手法が「脳をモデル化する着想から生まれた」という話と「脳に似てるからすごい」というファンタジーは区別した方がよい気がしてて、1989年のこの論文に象徴されるように「関数の近似に便利だからすごい」の方が実態よく表して…
RT @philomyu: ニューラルネットワークという機械学習手法が「脳をモデル化する着想から生まれた」という話と「脳に似てるからすごい」というファンタジーは区別した方がよい気がしてて、1989年のこの論文に象徴されるように「関数の近似に便利だからすごい」の方が実態よく表して…
RT @philomyu: ニューラルネットワークという機械学習手法が「脳をモデル化する着想から生まれた」という話と「脳に似てるからすごい」というファンタジーは区別した方がよい気がしてて、1989年のこの論文に象徴されるように「関数の近似に便利だからすごい」の方が実態よく表して…
RT @philomyu: ニューラルネットワークという機械学習手法が「脳をモデル化する着想から生まれた」という話と「脳に似てるからすごい」というファンタジーは区別した方がよい気がしてて、1989年のこの論文に象徴されるように「関数の近似に便利だからすごい」の方が実態よく表して…
ニューラルネットワークという機械学習手法が「脳をモデル化する着想から生まれた」という話と「脳に似てるからすごい」というファンタジーは区別した方がよい気がしてて、1989年のこの論文に象徴されるように「関数の近似に便利だからすごい」の方が実態よく表してると思う。https://t.co/XF0YdWLyq6
普遍性定理を証明した論文を読んでみようかな,読めるかな https://t.co/p5vL6cuHKD
@IrisVanRooij What would be your take on the universal approximation theorem (Cybenko, 1989)? Proven + tractable algorithm to approximate a [compact] function to an arbitrary degree of accuracy. https://t.co/RSrpTuE2Tl
@askerlee @sherjilozair Worth bringing up this seminal paper [1]. NNs are (mostly) just superpositions of sigmoids after all : ^ ) [1] - https://t.co/WpvHVXKxNH
@perrymetzger Any decent linalg text (I like Axler's) will show equivalence of matrices and linear functions, and the fact that composing them only ever gets you another one. For classic universal approximation results see https://t.co/zCzuSBqKUa and http
Those who use MLP/NN can read the following paper that shows 1 hidden layer NN with sufficient neurons and sigmoid activation can approximate any function in [0,1]^n cube. https://t.co/Qg1D5fUgkb
@Nyanyan_Cube 今ちょいとググってみたんですが、多分これがその原論文だろうと思います。これ自体は有料のPDFですが、同じタイトルでぐぐると(以下略) https://t.co/eKJH9bl5Z5
@jpmorgan Cybenko, G.: Approximation by superpositions of a sigmoidal function. Math. Control Signals Syst. (1989). https://t.co/yCfHq6Wiqg @business @ORCLBlockchain @MikeBloomberg @oraclepartners @java @intel @PGelsinger @MichaelDell @DellTechAPEX
RT @ChristosArgyrop: @nonintuitive @grazzidad @DABaranger @tcarpenter216 It pays off to read the classics about the universal approximation…
@nonintuitive @grazzidad @DABaranger @tcarpenter216 It pays off to read the classics about the universal approximation properties of ANNs): Cybenko (somewhat complex proof using the Riesz representation theorem) : https://t.co/A37Binb4s4 HSM paper (which u