嘿!您似乎在 United States,您想使用我们的 English 网站吗?
Switch to English site
Skip to main content

【转载】人工智能那些事儿(1) - 你没被A.I.吓着吧?

原作者:苏老师

转载自:https://mp.weixin.qq.com/s/joTaXXj1rfA5P8SMSMz9gA

科学界提出“人工智能”(Artificial Intelligence,缩写A.I.)这个概念是1956年的夏天,在Dartmouth学院的一个废弃的小阁楼上,一小撮数学家和科学家在头脑风暴的时候不知谁脑袋一热,要组建一个牛逼的科学家小组,目标是花一个夏天的时间让机器能够模拟人的行为,具备人的智能。

然鹅,没有实现,当时的设想还是基于符号、基于逻辑推理的思路,机器根本无法理解人的推理是如何进行的。很多年过去了,经历了半个世纪,人们仍旧不停滴探索,什么基于规则、框架以及逻辑的专家系统(今天倒是成功地应用于拼写和语法检查中)、什么神经网络(30年前,我上大学的时候还曾经有“专家系统”和“神经网络”这两门课,感觉名字太深奥,也没有深入了解),由于当时缺乏强大的计算力和海量的数据,这些理论探索只是停留Paper上,供科研的资金越来越少,对A.I.的研究越来越冷,只留下孤零零的几支仍然不屈不挠地探索着如何让机器像人一样智能,人工智能的研究处于漫长的冬季,只有不断出现的忧患意识极强、想象力极其丰富的好莱坞的大片 - Terminator、i.Robot、Her....给这些科学家们一些希望。

706c42b070aec55afa068c30e8807459_0247ac8820c8401ce4164c92dc5969e8bed769df.jpg

突然,2016年,世界冠军李世石被一只能自我学习、自我对弈的Alpha狗连续扁了4次以后,人们在媒体的大肆渲染下,猛地发现人工智能(A.I.)其实在财大气粗、科技情怀满满的科技巨头的推动下,已经悄悄来到我们的身边,比如Nest(被Google收购)的智能温控器可以根据主人的习惯自动调节室温;IBM的Watson基于X光片的诊断已经让几十年工龄的老医生担心自己快下岗了、苹果的Siri/Amazon的Echo可以听懂不同方言的人的口语并给出答案、Google的无人驾驶汽车每天穿行在硅谷拥堵的车流里。

5a4b56e17101ad3b8c30a841-2732-1366_cc6efbfd47ef886730bf040bfb67ba63ef62082f.jpg

机器已经能够听懂我们的方言 - 自从2011年苹果在iPhone 4S上推出Siri,迄今智能语音交互技术已经日趋成熟,虽然骗钱、骗地的科大讯飞让人们对中文语音的交互能力产生了恍惚,但前几天我们工程师用醇厚的山东口音、语法飘忽的英语指挥Google的Assistant控制连接在树莓派GPIO上的彩色LED的状态,毫无争议地证明了机器对人的语言的解读能力已经胜过多数人对人自身语言的理解。

 

机器睁开了火眼金睛 - 无论是苹果、Facebook、Google、微软,乃至我国的没良心企业某度,都具备了在“百万军中取上将首级”的能力,于是我们的大街小巷、机场车站都被A.I.赋能的“雪亮的摄像头”凝视,天网恢恢,疏而不漏。机器视觉也成了最火热的技术领域,被各色的PPT公司赋予了巨大的财富想象空间。

HAV_36043ac7c01d61f7b9cf83ff3f7c22dda77481c9.jpg

机器为什么开始智能了 ?因为“机器学习”(Machine Learning)了,机器学习中最聪明的一种就是仿生人脑神经结构的“深度学习”(Deep Learning),又叫“深度神经网络”(缩写DNN)。这种牛逼的算法怎么工作的我迄今还没弄明白,以我仅存的数学基础实在难以理解,但我知道要让这种算法工作,离不开一下三项:

  1. 足够的计算能力 - 我们的IC已经接近了摩尔定律的极限,到了薛定谔的猫的状态,上帝实在看不下去了,即便是一群驴拉磨,还是让这个磨开始转动了;

  2. 海量的数据 - 互联网搞了20年,移动互联网也搞了10来年了,网络带宽到了Gbps、存储器到了TB,这海量的数据丢进去,让处理器玩命进行拟合,即便最随机分布的数都能让科学家仅凭脑袋就总结出一堆的统计规律,何况还有这么超级计算力的机器日夜不停地进行计算;

  3. 钱 ($ ¥) - 没钱就没办法买速度飞快的计算机系统,还要集群才能行;没钱就没办法付巨额的电费让这些机器昼夜不停地跑,只有富可敌国的资本家才有这么个财力让这一切成为可能。

天时、地利、人和基本具备,于是在我们这个幸运的时代,依靠强大的计算力、基于海量的数据、在某些场景下就能够拟合出一个y=f(x,t)的关系式,这个过程被叫做“训练”(Training),基于这个训练过程拟合出来的关系,给定一个输入量x,系统就告诉你最有可能的结果是y,这个过程叫“推理”。

来,我们看看基于神经网络的机器是如何从一堆照片中把一只狗找出来的:

2e087aafecd1b501927c909b7e5890ae_4515b8a35aee78d3f03435f1ef811b4c7ede4b46.jpg

当然人类的步伐不只是让机器听懂我们、看明白我们,还要让机器帮我们干活,尤其是干体力活,于是各种机器人的研发成了热点,人们的目标就是让机器人成为人类的奴隶,只要喂它们点“电”,它们就可以不知疲倦地为我们扫地、端盘子、扛麻袋。。。看看波士顿动力机器人Atlas这妖娆的跳跃走位,估计不久就可以飞檐走壁、上房揭瓦了,建筑工人只需要躺在树荫下喝着可乐听着歌,指挥者这些钢铁大力士。

Boston-Dynamics-Roboter-Parkour_0656e8db2daae3e1aa7474f90cf5c3a9886c1e61.jpg

对于A.I.的未来,不同的人有不同的看法,那些行业的超牛比如霍金大神、钢铁侠马斯克都对A.I.的发展持谨慎态度,担心有朝一日我们人类会毁于这些我们创造的新物种,要防患于未然。

虽然我人微言轻,说了也没用,但我的观点还是要表达一下。我个人觉得所谓的A.I.威胁论纯粹是杞人忧天,毕竟进化了几十万年的人类,脑袋里的神经网络根本不是几十亿颗晶体管制造的硅片能模拟的;人吃一个馒头能够跑几十公里,机器人背上一坨电池跑半个小时就得倒下,在人类还没有将E=MC2用起来之前,根本不必担心机器人会对我们人类有任何威胁,至少在我们的有生之年这个问题不会困扰我。

在这一讲里我们来记住一位牛人 - 加拿大多伦多大学的教授、神经网络的先驱、深度学习的教父级牛人 Geoffrey Hinton,正是他坚持不懈地在神经网络领域的耕耘终于让微软、Google在语音处理、图像识别方面有了质的飞跃,从而也燃爆了人们对深度学习的热情,开辟了人工智能学习的一条道路,我们不知道这条道路究竟能走多远,但无论如何,我们人类在认知世界的过程中迈出了大大的一步。

CHY4y4HUcAEq0MR_7b880d4b2d54e8e5dc9db4fe57ecceb7666aea4e.jpg

神经网络先驱、深度学习教父 - 多伦多大学教授Geoffrey Hinton

下一讲我们将介绍一下数据和算法在A.I.中的角色和具体应用。

与人工智能相关的一些技术术语

  • 人工智能(AI) - 广义上讲就是任何能够通过逻辑、if-then规则、决策树以及机器学习的方式让计算机模仿人的智能的技术;

  • 机器学习(Machne Learning,简称ML) - 是AI的子集,包含了统计技术能够让机器改进有经验的任务;

  • 深度学习(Deep Learning) - 机器学习的子集, 由允许软件训练自己执行任务的算法构成,比如通过多层神经网络处理对大量数据的处理而实现的语音和图像识别;

  • 神经网络(Neural Networks) - 模拟大脑中神经元的适应性网络的方式来构建软件的工作方式,而不是通过人类预先确定的严格指令去执行;

  • 大数据(Big Data) - 大量数据集用于计算分析,很多是为了揭示模式或趋势的神经网络;

  • 奇点(Singularity) - 一个假设的时间/状态,在这个点上超级智能的机器能够不依赖人的干预开始提升自己;

  • 自然语言处理(NPL)- 由计算机执行的语音识别技术,软件能够辨识各种方言的人说出的话,并且能够将口语重造为文字;

  • 量子计算(Quantum Computing)- 结合了数字计算和量子物理学的计算方式,它遵从量子比特、叠加等定律,能够比当前的个人电脑快1亿倍。

PuaChengLin 还没写个人简介...
DesignSpark Electrical Logolinkedin