本篇文章4239字,读完约11分钟
自1956年达特茅斯会议引入人工智能以来,人工智能研究经历了几次起伏。在高潮和低潮的交替中,人工智能在理论和实践上都取得了巨大的进步,这是不可否认的。尤其是以深度学习为代表的人工智能技术,近年来在计算机视觉、机器学习、自然语言处理和机器人学方面取得了巨大的进步,深刻地改变了我们的生活。在这种变化中,实验室的成果可以很快进入行业,这在技术发展的历史上是非常罕见的。2016年5月,国家发改委等四部门联合发布了《互联网加人工智能三年行动实施方案》。总理的政府报告也提到了人工智能产业的发展。“ai2.0”将被纳入中国科技部“科技创新2030重大项目”,ai已被提升为国家战略。面对人工智能的热潮,我们应该如何理解现状?如何看待它的进步?如何理解它的功能和局限性?本文将从人工智能的核心理论基础、存在的一些问题以及未来可能的发展方向等方面进行介绍。
首先,人工智能的核心基础
1.特殊人工智能算法
深度学习本质上是一个自主学习系统,它来源于传统的模式识别。通过对大量数据的训练,深度学习网络将自动发现这些数据的模式,然后通过这些模式预测未知数据。以kaggle竞赛中的猫和狗分类为例,具体步骤是:(1)让计算机“看到”成千上万张包含猫和狗的图像;(2)该程序通过对图像数据(例如边缘、形状、颜色、形状之间的距离等)进行分类和聚类来建立图案。),足够的模式可以得到最终的预测模型;(3)运行程序,通过预测模型检查新的图像集,然后将其与预测模型进行比较,以确定图像是猫还是狗。
深度学习算法通过模拟人脑神经网络的人工神经网络来实现类似人脑的功能。该算法将在运行中执行各种周期,通过缩小模型与实际情况之间的差距来提高对每个周期的预测,最终建立预测模型。
人脸识别在安防行业的应用是一个很好的深度学习的行业应用案例。人脸识别算法通过大量已标记的人脸数据训练模型,并自动识别人脸的关键点。通过调用该算法,设备将捕获许多关键点,这些关键点将被发送到深度学习模型,并且内置引擎和预测模型将被用来判断它是谁。
强化学习也是一种自主学习系统,但它主要是通过试错法学习的。答案是通过执行有限次数的行动来获得奖励。换句话说,就是从实践中学习,从实践中发现结果。这就像我小时候学骑自行车一样。一开始我经常摔倒,但随着摔倒次数的增加,我慢慢掌握了窍门。学习过程是强化学习。当计算机使用强化学习时,它们会尝试不同的行为,从反馈中了解这种行为是否能得到更好的结果,然后记住能得到更好结果的行为。规范的观点是,计算机在多次迭代中自动修正算法,直到它能做出正确的判断。
使用强化学习的一个好例子是让机器人学会走路。首先,机器人向前迈了一大步,然后摔倒,这是强化学习系统的反应点。由于反馈是负的,调整将继续,系统将根据多个负反馈进行调整,最后确定机器人应该迈得更小,并保持更小,直到机器人可以行走而不会摔倒。
深度学习和强化学习首先是自主学习系统。两者的区别在于,深度学习是从训练集中学习,然后将所学知识应用到新的数据集中,这是一种静态学习。强化学习是通过不断的反馈来调整自己的行为以获得理想的结果,这是一个不断尝试和犯错的过程,是一种动态的学习。此外,现阶段投入市场应用的深度学习算法和强化学习算法属于监督学习,在自动发现数据集中的规则方面不同于无监督学习。监督学习需要大量标记的训练数据作为训练集,并在训练集中寻找规则。
深度学习和强化学习是特殊的人工智能算法。当面对具体的任务(如玩围棋、分类、测试)时,由于任务单一、需求明确、应用边界清晰、领域知识丰富、模型相对简单,形成了人工智能的单一突破,可以在单一测试中超越人类智能。Alphago在go中获得冠军,ai程序在大规模图像识别和人脸识别方面超越了人类水平,ai系统在专业医生水平上诊断出皮肤癌。
2.计算能力
除了特殊的人工智能算法,近年来计算机硬件的发展构成了人工智能发展的基础。人工智能在早期进入第一个发展低谷的原因之一是缺乏计算机计算能力。深层神经网络训练的本质是矩阵运算。反向传播寻求整个网络的最小损失,这使得训练易于并行化。使用NVIDIA图形处理器可以大大加快深层神经网络的训练速度,越来越多的传统信息制造商正在使用NVIDIA图形处理器构建图形处理器集群。英特尔至强芯片提供了强大的多核计算能力,可以在服务器上形成多条路径,并通过多节点集群执行并行优化计算。不是特别重的任务可以由中央处理器直接完成。目前,英特尔正在开发一种集成cpu和fpga计算能力的芯片。
特种神经网络芯片发展迅速,主要包括fpga、dsp、asic、arm扩展模块等技术路线。它们具有高速、高带宽和低功耗的特点,主要面向移动和嵌入式系统。许多制造商已经将图像处理和目标识别等基本模型和算法整合到芯片中,并快速集成到嵌入式设备中。目前主要功能有人脸识别、照片分类、图像处理、图像风格迁移、图像超分辨率重建、车牌识别、智能安全、自动驾驶、无人机姿态保持和位置跟踪等。
3.数据
目前,它正处于数据爆炸的时代。根据希捷科技赞助并由国际数据公司(idc)发布的白皮书“2025年的数据时代”,到2025年,全球数据圈将扩大到163zb,是2016年生成的16.1zb数据的十倍;属于数据分析的全球数据总量将增加到50倍,达到5.2兆字节;;然而,被认知系统“触及”的分析数据总量将增加到100倍,达到1.4兆字节。大量的新兴数据催生了一系列全新的技术,而人工智能将数据分析从不寻常的追溯实践转变为战略决策和行动的驱动因素。
第二,存在一些问题
1.数据成本
如前所述,广泛应用于工业领域的深度学习网络需要大量的标注数据进行训练才能达到预期的效果。这些训练数据的标注需要手工完成,这导致了巨大的人工成本。虽然互联网上有取之不尽的海量数据,但大多数都是无标记的数据。为了解决这个问题,我们可以试着从以下两个方面来解决:
(1)无监督学习
与监督学习相比,无监督学习可以充分利用这些数据,而不需要花费大量的人力和物力来标记训练数据,从而大大降低了训练模型的成本。另一方面,目前的深度学习模型的训练需要使用大量的数据。
(2)小样本学习
机器学习能力与人类学习能力相差甚远。例如,儿童只需要几张猫的照片就能准确地识别猫,但是深度学习模型需要数百万张照片。目前,流行的自动驾驶技术需要数百万公里才能训练出令人满意的结果,而人们只需要数千公里就能成为老司机。事实上,小样本学习更接近人类智能模型,小样本学习能力的发展可以将人工智能技术应用到越来越多的领域。小样本学习研究的一个重大突破是“贝叶斯& # 8194;程序& # 8194;学习”的方法,并用它来解决& # 8194;“一目了然”的问题。
2.模型可解释性
人工智能的另一个问题是机器学习模型的可解释性和稳定性。目前,大多数机器学习模型都是“黑箱”模型,难以理解。此外,模型的稳定性一直是个问题。例如,向图片中添加一些白噪声,深度学习模型将给出令人惊讶的预测结果。
3.模型尺寸限制
目前,很难用计算能力来训练大规模的深度学习模型。例如,gb级模型训练过程需要高带宽。gpu比cpu更适合训练深度学习模型的原因之一是视频内存的带宽大于内存的带宽。此外,如果模型太大,它将过度拟合基准数据,并且不会从样本中提取更多的抽象特征。在实际应用中,如果深度网络存在偏差,将会带来非常严重的后果。例如,在训练自动驾驶的数据集中,没有婴儿会坐在路中间。深层神经网络对标准的对抗攻击很敏感,这种攻击会对图像造成难以察觉的变化,但会改变神经网络对对象的认知。Alanyuille说,所有这些问题都是由组合爆炸造成的,从组合的角度来看,现实世界的图像数量太大,在某种程度上是无限的。无论数据集有多大,都很难表达现实的复杂性。
4.泛化性能
从专用智能算法到通用智能算法是下一代人工智能发展的必然趋势,也是研究和应用领域面临的挑战。一般智能被认为是人工智能的皇冠上的宝石。从目标来看,广义智能意味着提高神经网络的泛化能力。为了解决这个问题,研究者们做了各种努力。从正则化技术到脱落技术再到bn技术,这些技术在一定程度上缓解了神经网络的过拟合问题,提高了泛化能力。但这些只是技巧,不能从根本上解决问题。目前,解决这一问题的方法是迁移学习,即将所学知识从一个场景转移到另一个场景。例如,我们可以将由猫和狗的图像训练的分类模型转移到其他类似的任务中,并使用它们来区分鹰和杜鹃。使用迁移学习,在模型训练任务中为某一类型的数据获得的关系也可以容易地应用于同一领域中的不同问题。迁移学习在一定程度上缓解了标记数据的压力,这是向通用人工智能更近一步。
三、发展趋势
虽然深度学习在某些方面还存在一些不足,但是科学界已经有了一些可喜的突破,基于深度学习的人工智能已经深刻地改变了人们的生活。在未来,人工智能将会发展得更快。本文认为有以下四种发展趋势:
1 .人工智能芯片加速发展
即使是快速和先进的cpu也不能提高人工智能模型的速度。人工智能模型运行时,需要额外的硬件来进行复杂的数学计算。尤其是用于安全行业的前端设备,需要更小更强大的嵌入式芯片来运行更好的实时跟踪、人脸识别等应用算法。
2 .人工智能边缘计算与物联网的融合发展
目前,边缘人工智能的不断发展是控制数据洪流的关键之一,也是物联网未来发展的重要趋势。随着人工智能技术的快速发展,需要快速有效地提取和分析海量数据,这大大增强了对边缘计算的需求。未来,人工智能技术、边缘计算和物联网将更加紧密地融合和发展,尤其是在安防行业的视频监控领域。
(1)神经网络之间的互操作性
神经网络的训练是基于框架的。一旦模型在一个特定的框架中被训练和评估,就很难移植到另一个框架中,这就阻碍了人工智能的发展。神经网络之间的互操作性将成为未来人工智能行业的一项重要技术。
(2)自动化人工智能将更加突出
从根本上改变人工智能解决方案的一个趋势是自动化人工智能,它使业务分析师和开发人员能够有效地发现能够解决复杂场景的机器学习模型,而无需对机器学习模型进行典型的培训,因此业务分析师可以更加关注业务问题。
四.结论
人工智能技术一直处于计算机技术的前沿,其研究理论和发展将在很大程度上决定计算机技术的发展方向。目前,许多关于人工智能的研究已经深刻地改变了人们的生活。在未来,人工智能的发展将会更加迅速,这将对人们的生活、工作和教育产生更大的影响。
标题:人工智能技术现状剖析
地址:http://www.hcsbodzyz.com/hcxw/735.html