| ||
摩尔定律的终结可能会带来一个设计的新黄金时代,尤其是在人工智能和机器学习的推动下。但是设计将成为在任务、应用程序和域特定的,并且需要我们以一种不同的方式考虑产品的生命周期。
在未来,设计还必须为了增强体验,而不仅仅是任务的自动化。这些是今年设计自动化大会(DAC)主题演讲中得出的一些结论。今年有五个主题演讲,其中不乏有远见的技术演讲。
计算机体系结构的新黄金时代
David Patterson,加州大学伯克利分校名誉教授,RISC-V董事会副主席
Patterson的演讲分为三个部分– 首先在15分钟内介绍了50年的计算机架构,然后是今天面临的挑战,最后是未来的机遇。在第一部分中,他谈到了x86架构的兴起导致了RISC的兴起和主导地位。他补充道:“但是现在我们没有高效的idea了。像Python这样的高级语言使程序员的工作更容易,更富有产出性,但机器执行的效率却不理想。在硬件方面实现通用性似乎很难,唯一能做的就是特定领域的架构。他们不必事事都做,只需要做好所在领域的。”
Patterson演示了矩阵乘法练习,并展示了一系列可以产生63000倍性能进步的改进方法。“每个人都在谈论神经网络,它可能是图形,虚拟现实或可编程网络。神经网络是怎样神奇地工作的?你可以更有效地使用存储带宽,并且可以将内存专用于特定功能——在正确的位置使用正确的大小。你不需要通用计算所需的准确性,不需要64位IEEE浮点,甚至64位整数也是不必要的。”
业界一直能够创造独特的硬件,但软件从何而来?“特定领域的语言旨在通过提高抽象级别,使程序员在特定领域更有效率。”他谈到了谷歌TPU的创建以及如何引起了很多关注。“过去很难让风投去投资硬件初创公司。这将不再是问题。已经至少45家机器学习相关的硬件初创公司诞生了。”
Patterson的谈话随后转向RISC-V及其开源的重要性。“安全和开放式架构齐头并进。我们并不想用模糊性来保证安全。”他还谈到了敏捷设计的兴起以及大学是如何利用它来创造芯片的。“我们可以制造小芯片,100个芯片只需14,000美元。做一个大芯片要更多的钱,但你可以在很长一段阶段都用小芯片。在伯克利,我们使用Agile在5年内完成了10个芯片。有了敏捷,就再也没有理由不制造芯片了。每个人都买得起芯片。”(路桑注:这听起来就很震撼了,agile的春风何时能吹进大公司呢?)
他总结说,使用特定领域的语言是一个新的机会,在它们背后有特定于域的架构,现在是再次进入硬件业务的好时机。
计算的未来
Dario Gil,AI和IBM Q副总裁
Gil的谈话集中在人工智能的现状和他认为的趋势。他研究了不同的架构,包括适用于AI的模拟计算和量子计算。“关于人工智能有很多炒作,但它可以称得上是当今科技界最重要的趋势。一个例子是麻省理工学院和斯坦福大学的机器学习课程。十年前的一个班级可能有30或40名学生,现在在斯坦福大学读机器学习的学生超过一千名,在麻省理工学院有700多名。”
在讨论了人工智能和神经网络的早期阶段之后,他研究了其如何应用于电路设计。“我们创建了一个综合调优系统(SynTunSys),可以运行许多并行综合工作,这样我们就可以自动得知专家正在实施的参数。在最近的芯片上,在专家进行传统优化之后,我们应用机器学习来完成这些参数的配置,总负时差改进了36%,锁存器到锁存器延迟改进了60%,功耗降低了7%。这些数字具有重要意义,这已经是专家们尽其所能的结果。”
然后他谈到人工智能的问题。“我们必须创造一个不那么黑盒子的人工智能。它必须更容易解释。我们必须更好地了解神经网络中发生的事情,然后用调试器处理这些网络中的错误。可解释性是许多行业的基础。其次,虽然神经网络令人印象深刻,但它们是脆弱的。随着对抗性网络的出现,你可以将噪声注入系统,以欺骗它错误地对图像进行分类。这说明了这些系统固有的脆弱性。伦理问题——这是一个很大的话题。我们还必须考虑偏差。如果你创建了一个受示例训练的系统,使用的示例偏离过去,那么系统可以学到的课程将是非常糟糕的。”
走向未来,还要迈出另一步。“学习取得了很大的进步,但推理却没有那么进步。推理必须成为人工智能需要改进的一部分。我们能真正破解理解力吗?我们能构建一个不仅能处理语言,还能理解文本的机器吗?“他将这一概念扩展到了写作和自动化实验。Gil讨论了神经网络的内部工作原理以及将计算和存储器紧密结合在一起所带来的好处。“我们一直在使用相变存储器(PCM),并且制造出了具有超过一百万个PCM元件的芯片。我们证明,你可以实现具有比传统GPU 改进500倍的深度学习训练,并且具有相似的准确度。”
他最后谈到量子计算,除了说他们可能能够解决超出传统方法的问题,他并没有着重研究量子计算机如何用于机器学习,而是解释了量子计算的内在技术。