1903 高级人工智能技术作业 - 人工智能课程总结与趋势分析 返回首页

发表于 2019-10-24 | 本文共 60 字

人工智能与智能程序的区别

  人工智能是计算机学科的一个重要分支,指的是用计算机程序来模拟人类的智能。人工智能虽然不是人的智能,但是可以像人那样思考,并且超过人的智能。例如,自动驾驶汽车可以根据实际道路情况来判断车辆如何行驶,而且成熟的自动驾驶技术可以避免驾驶员失误操作,降低交通事故发生率。

  智能程序,我理解是一种按照人类设定的指令来运行的程序。智能程序由程序开发人员将可预见的场景对应的处理逻辑写进程序中,然后程序开发人员设置好程序运行规则或者由程序使用者设置程序的运行规则,程序按照规则执行。例如RPA处理的重复性工作。

  人工智能和智能程序的最主要的区别是:智能程序是根据预先设定的指令来自动执行,是程序的忠实执行者;而人工智能不仅可以完成智能程序的工作,还可以模拟人类行为,进行学习、判断,更倾向于是程序指令的发出者。下边以表格的形式列出两者的区别:

人工智能 智能程序
应用范围广,如机器翻译、语音识别、自动驾驶等等 应用范围窄,例如RPA,适合处理重复性手工过程和处理结构化数据
可以自我修正,避免出错 程序出错,依然按照既定规则执行,产生错误的结果或是系统崩溃
倾向于指令的发出者 指令的执行者
技术进步难度较大 技术进步难度较小
某种场景下,欺骗人类。如故意不通过图灵测试、故意下棋输给人类 忠实的指令执行者

人工智能是对人类劳动力的代替吗

  1900年纽约第五大道,跑的都是马车,十几年后的1913年已经都是汽车。从马车到汽车的发展,一方面提升了人们的出行效率,另一方面淘汰了一部分旧的就业岗位如马夫,但是也产生了新的就业岗位如汽车司机。
  软件的发展也会淘汰了一批就业岗位。时间倒回到2000年,高盛在纽约总部的美国股票交易柜台雇佣了600名交易员,根据投资银行大客户的订单买卖股票。如今,他们只剩下了两个股票交易员,剩余的工作已经被自动交易程序接管了,而这些程序需要200名计算机工程师支持。
  我认为,人工智能的发展在替代人类劳动力的过程会有以下几个时间段:

  1. 短期,即现在和不远的未来。人工智能会替代部分人类劳动力,但是也在创造新的就业岗位。比如,自动驾驶技术的发展会淘汰驾驶员,但是自动驾驶汽车的研发、生产和测试,需要大量相关工作人员,而这些工作人员的工作目前是无法被人工智能替代的。
  2. 中期,即强人工智能到来前。人工智能分为弱人工智能和强人工智能,目前处于弱人工智能阶段,还以自动驾驶技术为例,这项技术的成熟会取代驾驶员,但是自动驾驶技术的改进、汽车路上抛锚后的维修等工作还是离不开人类的。因此,我认为中期人工智能也是会代替部分人类劳动力,但绝不会完全替代。
  3. 强人工智能时代。强人工智能观点认为“有可能”制造出“真正”能推理(Reasoning)和解决问题的智能机器,并且,这样的机器将被认为是具有知觉、有自我意识的。我认为思考“强人工智能是对人类劳动力的代替”这一问题属于对于未来的猜想,真正到来的时候会是什么情况尚未可知,就像汽车大王亨利福特的名言:“如果我当年问顾客他们想要什麼,他们肯定告訴我要一匹更快的马”。强人工智能时代到来时,会是什么样,是否会大量代替人类劳动力?都只是我们基于现有情况的猜测,而未来的结果可能跟我们的猜测完全不一样。

人工智能会创造新的“智能劳动力红利”吗

  我认为,人工智能会从以下3个方面创造“智能劳动力红利”:

  1. 人工智能可以替代人类完成工作环境差、劳动强度大、机械重复的工作,解放了这些行业原有的人类劳动力,使他们可以更有效的利用时间或者投向其他行业。
  2. 人工智能技术可以作为对人类工作的一种辅助,协助现有劳动力更好更快的完成工作,创造更大的价值。
  3. 人工智能本身出错率低、工作时间长、工作强度大,产出也能快速增加,大幅的提高了生产效率。

人工智能会弥补劳动力在生产过程中规范与程序化的不足吗

  人工智能会弥补劳动力在生产过程中规范与程序化的不足,但是人工智能的大量应用也会带来新的问题,比如人工智能偏见。例如,谷歌更偏向于给女性推送低薪广告;亚马逊的当日送达服务绕过了黑人街区;还有几类数码相机软件都在识别非白人用户的面孔方面感到困难。其中最鲜明的例子是COMPAS算法,该算法被多个州政府的执法机构用于评估被告人再犯罪的风险,据ProPublica的一项调查显示,黑人被错误标记为罪犯潜在分子的比例几乎是白人的2倍。
  出现人工智能偏见原因有很多,比如人工智能背后需要即为大量的数据去训练,尽管人工智能本身不知道“歧视”和“偏见”是什么意思,但背后数据的研究人员却会带有这样的思想,以至于在训练数据的选择上就会产生偏向性。又比如,某个性别或者某种肤色人种在该领域的数据普遍比较差,这种就无法避免“歧视”。