人工智能(AI)和机器学习(ML)在不同领域的应用改变了传统的方法,以适应不同的应用。
虽然术语AI和ML可以互换使用,但前者的目标是任务的成功,而后者则确保任务的准确性。
从市场营销、零售到医疗保健和金融,人工智能(AI)和机器学习(ML)在这些领域的应用正在彻底改变传统的方法,以适应不同的应用。
人工智能使系统能够感知、理解、行动和学习,以执行复杂的任务,例如早期需要人类智能的决策。
与常规编程不同,在常规编程中,需要为每种情况定义动作,AI与ML算法结合可以处理大数据集,训练如何响应,并从遇到的每一个问题中学习以产生更准确的结果。
这不仅影响了我们使用数据的方式,也影响了我们设计和制造用于下一代设备的硬件芯片或集成电路(IC)的方法,从而打开了新的机遇。
人工智能的发展将创新的核心从软件转向硬件。
例如,为了获得更好的性能,与传统的处理和传输大数据集的要求相比,人工智能需要更多的内存。
以家庭中越来越多地使用虚拟助理为例,如果没有可靠的硬件来实现与内存和逻辑相关的功能,这些功能就无法正常工作。
根据埃森哲实验室和埃森哲研究所的年度报告,与扩展现实、分布式账本和量子计算等技术相比,半导体行业对未来几年人工智能在其工作中的潜力高度乐观。
四分之三(77%)的受访半导体高管表示,他们要么已经在自己的业务范围内采用人工智能,要么正在试点这项技术。
AI和ML的概念
虽然术语AI和ML可以互换使用,但前者的目标是任务的成功,而后者则确保任务的准确性。
因此,解决一个复杂的问题是通过人工智能训练来完成的,但是通过从数据和已经执行的任务中学习来最大限度地提高效率是ML的概念。
ML依赖于大数据集来找到共同的模式,并基于概率进行预测。
应用人工智能在为金融市场预测和自主车辆控制而设计的系统中更为常见。
在所谓的监督学习ML算法中,建立输入数据与目标输出之间的关系模型来进行预测,而无监督学习不需要对数据进行分类训练。
在复杂的计算机游戏中,需要不断从环境中获取信息的情况下,可以实现强化学习。
类ML神经网络的分支已经应用于语音识别、社会网络过滤、计算机视觉、自然语言处理等领域。
这些技术获取和检查成千上万用户的数据,以实现精确和精确的应用,如人脸识别。
这有助于现在被认为不可思议的创新的快速发展,但随着硬件的进步,在未来几十年里,它的位置可能会被更先进的创新所取代。
AI和ML能够发展到目前的程度,这不仅是由于算法的进步,而且是由于存储能力、计算能力、网络等方面的进步,使得以经济的成本使先进的设备能够为大众所用。
传统上,逻辑在电子系统的设计中通常是硬连线的。
但是,鉴于目前制造成本的高企和芯片开发的复杂性,人工智能驱动的处理器架构正在重新定义传统的处理器架构,以适应新的需求。
计算主要在中央处理器(CPU)上进行,即计算机的大脑。
随着应用AI和ML算法的计算要求越来越高的应用程序的出现,通过图形处理单元(GPU)、微处理器(MPU)、微控制器(MCU)、现场可编程门阵列(FPGA)和数字信号处理器(DSP)的组合,额外的处理选择正在出现,以满足最佳特性要求。
这些被视为不同类别的选项正逐渐成为异构处理解决方案,如片上系统(soc)和定制设计的专用集成电路(asic)。
与传统的神经网络模型不同的是,它不仅需要高带宽的数据存储,而且还需要存储大量的数据。
为了正常工作而增加的易失性内存量会导致功耗水平的过度上升。
这就需要不断发展的内存接口,以确保任务以高速执行。
虽然新的处理器架构有助于减少负载,但其他机制,如新的内存接口和内存处理本身也在研究和实现。
英国初创公司Graphcore的IPU是一款新型处理器,具有高片上存储容量,专门为处理机器智能模型中的复杂数据结构而设计。
外部内存源比片上内存源返回结果所需的时间要长得多。
根据IHS Markit的一份报告,全球人工智能应用中的存储设备收入将从2019年的206亿美元增加到2025年的604亿美元,而处理器部分将从2019年的222亿美元增长到2025年的685亿美元。
因此,半导体提供了所有人工智能应用所需的处理和存储能力。
提高网络速度对于同时处理多个服务器和开发精确的人工智能模型也很重要。
高速互连和路由交换机等措施正在进行负载平衡检查。
人工智能的答案在于应用技术的改进。
AI和ML正在被用来提高性能,随着设计团队在这一领域的经验越来越丰富,他们将提高芯片的开发、制造和调整以进行更新。
在现有的EDA工具中使用基于ML的预测模型,美国Synopsys公司宣称,在HSPICE中,黄金时段的功率恢复速度提高了5倍,高西格玛模拟速度提高了100倍。
所有这些都需要专注于研发和精确的端到端解决方案,为半导体公司不同细分市场创造价值的可能全新的市场创造机会。
克服挑战
主要关注的是数据及其使用。
这不仅仅需要一个新的处理器架构。
对于不同的目的和应用,人工智能的结构和价值可能会因为不同的目的而变得无用。
人工智能使处理数据成为可能,而不是单个的位,并且在以矩阵的形式执行存储器操作时工作得最好,从而增加了被处理和存储的数据量,从而提高了软件的效率。
例如,当数据以尖峰形式输入时,尖峰神经网络可以减少数据流。
而且,即使有大量的数据,训练预测模型所需的有用数据量也可以减少。
但问题仍然存在。
就像在芯片设计中一样,ML模型的训练在不同的环境中独立地在不同的层次上进行。
人工智能的应用需要一个标准化的方法。
为了有效地利用人工智能,需要考虑为人工智能设计的芯片,以及为适应人工智能要求而修改的芯片。
如果系统中存在问题,则需要工具和方法来快速解决问题。
尽管设计自动化工具的应用越来越多,但设计过程仍然是高度人工的。
调整输入是一个耗时但效率极低的过程。
即使是设计实现中的一小步,本身也可能是一个全新的问题。
有许多公司声称使用人工智能和机器语言来获得这一趋势的优势并增加销售额和收入,这一现象已经被广泛滥用。
虽然压缩和解压缩的成本不是很高,但片上存储器的成本却不那么便宜。
人工智能芯片也往往非常大。
为了建立这样的存储和处理数据的系统,需要不同团队的专家协作。
主要芯片制造商、IP供应商和其他电子公司将采用某种形式的人工智能来提高其运营效率。
以更低的计算成本提供云计算服务有助于推动进进步。
技术进步将迫使半导体公司增强其劳动力的能力并重新进行技能培训,从而使市场上的下一代设备成为可能。
文章来源:电子发烧友
风险提示:本资料仅为服务信息,不构成对于投资者的实质性建议或承诺,也不作为任何法律文件。
本资料中全部内容均为截止发布日的信息,如有变更,请以最新信息为准。
产品过往业绩不代表未来表现。
市场有风险,投资者需谨慎。
投资者购买基金时,请仔细阅读基金的《基金合同》和《招募说明书》,自行做出投资选择。
免责声明:转载内容仅供读者参考,版权归原作者所有,内容为作者个人观点,不代表其任职机构立场及任何产品的投资策略。
本文只提供参考并不构成任何投资及应用建议。
如您认为本文对您的知识产权造成了侵害,请立即告知,我们将在第一时间处理。