mingmin de aofeisi bits量子|事实证明,Qbitai量表方法是32年前提出的!它不是2020年的Openai,而不是2017年的百度,而是1993年的Bell Labs。题为“学习曲线:渐近价值和收敛率”的文章提出了预测方法。训练和证明错误与训练量表的相同渐近误差值汇聚,这种收敛符合权力定律。这种方法使研究人员可以预测模型如何与较大的数据集一起使用。这或多或少与每个人当前在合理范围内提到的比例方法一致,仅增加了模型参数(n)(n)的数量。这篇1993年的文章并不小,总共有五位作者,其中包括支持矢量机,弗拉基米尔瓦普尼克和科琳娜·科特斯的赞助商。该文档的最初目的是提出杯状RVA,以保留计算机功率。这是关于存储计算机资源训练分类器的s(计算机电源总是缺少)。那时,自动学习算法可以将输入数据分配给特定类别,例如使用手写数字输入像素以确定它们是否为矩阵。通常需要进行大规模的数据库培训以使分类器更可靠。但是,研究人员必须制定有效的预测计划,因为他们不确定分类器是否适合特定任务。这项研究提出了在中等大小的数据集中的第一个训练的预测方法,然后通过推断提出的学习曲线建模来预测大量数据中的性能。这样,您就无需完成分类器培训,就可以使用计算机资源。首先,我们分别计算几个培养基尺寸训练集中的测试和训练错误。然后发现,随着训练集变得更大,训练错误和测试误差与相同的S收敛ymptom值和0.5-1之间。答:渐近误差(由于任务的不能导致的残余误差)ー、、とうかないます。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。B,C:振幅参数。 α:收敛速度指数(0.5和1之间的通用速度指数)成为对数线性比率,其中获得了两个对数坐标。您可以获得这两条直线,A,B和α可以获得。据估计,能量定律的估计曲线是较大的训练集大小(例如60,000),以预测完整数据分类器中的错误。实验结果表明,线性分类器(布尔分类任务)的预测非常精确。在多层神经网络(例如LENET)中,即使没有执行任务,推断结果也可以很好地预测大型训练的最终性能。例如,可以预测,仅12,000个样本的培训高于60,000个样本的旧CNN。此外,作者发现,任务越困难,渐近误差越大,收敛率就越低,也就是说,学习速度较慢。该理论被置于一个模型中,该模型可用于消除当时的穷人,并且在值得的模型中放置了有限的计算机资源。作者还是矢量支持机的赞助商,最后,有必要提及本研究的一些作者。首先,让我们看一下弗拉基米尔·瓦普尼克(Vladimir Vapnik端口向量机。他于1958年获得了乌兹别克斯坦州立大学的数学掌握,并于1964年获得了莫斯科控制科学研究所的统计数据。他从1961年至1990年在该研究所工作,在那里他担任计算机科学研究负责人。 Vapnik和Alexey Chervonnkis在1960年至1990年之间在Vapnik-Chubervonenkis(也称为VC理论)的理论中进行了合作。该理论是一种计算学习理论的一种形式,它们作为一个目标是从统计学的角度来解释学习过程的一种方法。这是统计学习理论的基础,它为学习算法的概括条件提供了理论基础,并量化了模型的复杂性(通过VC维度)。与贝叶斯理论相比,风投的理论提供了一种更通用的自动学习方法,而无需定义以前的分布。同时,Vapnik也是支持向量机的主要发明者(SVM)。这是用于数据分类和回归分析的监视学习模型。 1964年,Vapnik和Chervronenkis首先提出了原始的SVM算法。在1990年代,Vapnik加入了Bell Labs,并开始对自动学习进行深入研究。 1992年,他,伯恩哈德·博塞(Bernhard Boser)和伊莎贝尔·盖翁(Isabelle Guyon)提出了一种应用“核心技巧”造就非线性分类器的方式。 1995年,Vapnik和Corinna Cortes提出了一个具有软边缘的非线性SVM,并将其应用于手写字符识别的问题。由于表现出色,该文件引起了广泛的关注,并成为自动学习发展的重要基石。它的“统计理论的本质”也是自动学习领域中不容错乱的作品之一。他还曾在2014年担任Facebook顾问。另一位重要的作者是Corinna Cortes。她目前是Google Research纽约分部的副总裁对于广泛的理论和应用自动学习问题而言。他于1989年从哥本哈根大学尼尔斯博尔学院(Nealsboer Institute)获得了物理硕士学位。然后,他于1993年在罗切斯特大学(Rochester University)获得了计算机科学博士学位。 2022年,她被任命为ACM成员,以表彰她对自动学习领域的贡献。其他作者是L. D. Jackel,Sarah A. Sora和John S. Denker。其中,约翰·丹克(John S. Denker)与莱肯(Lecun)合作,在许多文件中手工写作。所有这些都是自动学习的经典杰作。他非常多功能,并且在自动学习,系统安全,好莱坞的特殊效果,电子游戏,视频游戏等领域进行了研究,并完成了许多创新的任务。他还在加利福尼亚创建并教授了“微处理器设计”的课程(硅谷变成工业文字的原因好的,可以彻底解释飞行原则。 1986年至1987年,丹克还曾在加利福尼亚大学圣巴巴拉分校的理论物理学研究所担任客座教授。他被称为“疯狂的科学家原型疯狂的幽默和图像”。值得一提的是,卷积神经元网络和支持向量机器都出生在贝尔实验室中。他们之间有一段“竞争”。在深度学习的出现之前,CNN被保留,以便需要“黑匣子”和大规模训练。相比之下,支持向量机器的理论很清楚,并且可以轻松地融合到最佳的全球解决方案。谁是正确的路线?有一个不断的辩论。 1995年,瓦普尼克(Vapnik)还与当时的拉力赛杰克(Rally Jackel)一起享用了豪华的晚餐。人们可以解释为什么大型神经网络在2000年的训练时间范围内效果很好吗? Vapnik感觉不可能。他在2000年获胜。然后他们再次押注,什么再发生五年吗?这次,vapnik错了。在2005年,没有人清楚地使用了与1995年完全相同的模型。勒肯(Lecun)目睹了这个赌注。纸质地址:https://proeedings.neurips.cc/paper/1993/file/1aaaa48fc4880b0b0c9b8a3bf979d3b917e-pper.pdf [1] https://yorko.github.io/2022/vapnik-jackel-bet/
特殊声明:先前的内容(包括照片和视频(如果有),如有)已由网络自我媒体平台的用户收费和发布。该平台仅提供信息存储服务。
通知:内容A(包括照片和视频(如果有))是一个社交媒体平台,是NetEase Hao的用户持有和发布的信息网站,仅提供存储服务。