AI愈来愈强,但大家即将养不活了

AI愈来愈强,但大家即将养不活了 时下可谓是聚势的深度神经网络,始于真空电磁阀电子计算机的时期。1958年,美国康奈尔大学的唐纳德·罗森布拉特受大脑神经元的启迪,设计方案了第一个神经网络算法,这一神经网络算法被取名为“深度神经网络”。罗森布拉特了解,此项技术性超过了那时候的计算水平,他痛惜地表明:“伴随着神经元网络联接连接点的提升……传统式的数据电子计算机迅速便会没法担负测算量的负载。”

幸运的是,计算机系统在几十年间迅速更新,使处理速度提升了大概1000千倍。因而,21新世纪的分析工作人员得到完成具备大量联接的神经元网络,用于仿真模拟更繁杂的状况。现如今深度神经网络早已普遍普及化,被运用于下围棋、翻译工作、预测分析蛋白折叠式、剖析影像医学等众多行业。深度神经网络的兴起锐不可当,但它的将来很可能是艰辛的。罗森布拉特所忧虑的测算量的限定,依然是包裹在在深度神经网络行业以上的一片阴云。现如今,深度神经网络已经逼近计算方法的極限。

极大的核算成本

一个适用全部应用统计学实体模型的准则是:要想使特性提升k倍,最少必须k2倍的统计数据来练习实体模型。又由于深度神经网络实体模型的过参数化设计,使特性提升k倍将必须最少k4倍的测算量。指数值中的“4”代表着,提升10000倍测算量较多能产生10倍的改善。显而易见,为了更好地提升深度神经网络实体模型的特性,生物学家必须搭建更多的实体模型,应用大量的数据信息对它进行练习。可是核算成本会越来越多价格昂贵呢?是不是会高到我们无法压力,并因而阻拦该行业的发展趋势?

为了更好地研究这一问题,美国麻省理工学院的生物学家搜集了1000余篇深度神经网络科学研究毕业论文的数据信息,涉及到图像分类、目标检测、问答系统、取名实体识别和语音识别技术等。她们的科学研究表明,深度神经网络正遭遇不容乐观的考验。“假如不可以在没有提升测算压力的条件下提升特性,测算量的限定便会使深度神经网络止步不前”。集成ic特性的提高是不是紧跟了深度神经网络的发展趋势?并沒有。在NASNet-A提升的1000几倍的测算量中,仅有6倍的提高来自于更强的硬件配置,其他是根据应用大量的CPU或运作更长期做到的,随着着更高一些的成本费。基础理论告知大家, 提升k倍的特性必须提升k4倍的测算量,但在日常生活中,提升的测算量起码是k9倍。

依据科学研究工作人员预估的图像识别技术行业“核算成本—特性”曲线图,将准确率降至5%,必须开展1028次浮点运算。另一项来源于英国马萨诸塞大学阿默斯特校区的科学研究表明了测算压力暗含的极大资金和自然环境成本费:练习一个准确率低于5%的图像识别技术实体模型,将耗费1000亿美金,其耗费的电力造成的碳排放与纽约一个月的碳排放非常。而要想练习准确率低于1%的图像识别技术实体模型,成本费就也是高价。

2022-01-14

2022-01-14