本篇文章7950字,读完约20分钟
作者授权发表01引言:在计算机≠人工智能世界人工智能大会上,马云和面具两个网络大佬关于人工智能( ai )航向的相对争论,激发了大家的食欲,对人们未来ai技术的迅速发展有所不同 在开幕式上,“钢铁侠”的面具是“电脑已经在很多方面比人类聪明,人们和电脑围棋没有希望你和宙斯战斗,我们太差了”,“人类对智力的追求越来越少,哎呀 对此,“太极拳七段”马老师是中国人特有的智慧,“和电脑战斗很愚蠢,只有愚蠢的人才能和车跑得很快”,“人类发明电脑是没见过电脑发明身体”,“根据科学, 当然,口罩对马云的看法也是“非常不同的意思”。 两个人谁错了? 我们首先不说将来ai是否超过人类,说两个大佬用的是同一个词“电脑”,两个“马来西亚哥哥”好像把ai和电脑一样。 如果按照严格的科学定义,把计算机看作严格按照机器程序执行任务的图灵机,计算机能否模仿人类的所有能力,理论上依然有重大的争论。 计算机≠人工智能是ai界的主流看法,但人们经常混淆这两个概念。 计算机与人工智能的关系比人们普遍理解的要复杂得多。 计算机的迅速发展史是人工智能的梦别史。 但是现实和梦想之间,隔开了深海。 02图灵机在创世纪20世纪后期,计算机技术的广泛应用,个人计算机( pc )的全球普及,可能是人类历史上意义最深远的技术革命。 托特勒被称为“第三波”,人类社会继农业阶段、工业阶段之后,进入了新闻化阶段。 通用计算机(图灵机)的发明是这一伟大历史转变的关键。 说到计算机,其实人类早就采用了各种计算装置。 从中国古代的算盘、古希腊的安提基希拉天文计算装置,到17世纪帕斯卡和莱布尼茨设计的“加法器”、19世纪巴贝奇设计的“内线”,还有20世纪上半叶ibm初期发售的各种机器? 电子数字计算机。 这些计算设备毫无例外地有共同的优点。 也就是说,这些都是专用计算机而不是通用计算机。 也就是说,设计是为了做什么,做什么,其他什么都做不了,其程序和计算是分开的。 因此,处理不同的计算任务必须设计和制作不同的计算装置,硬件、软件都必须重新制作。 但是,人类必须处理的计算任务源远流长,大体上要无限地制作很多不同的计算机。 因此,专用计算机尚未普及,制作价格非常高,只能用于特殊的计算任务,或者工业和军事上的重要目标。 通用计算机的出现改变了这种技术瓶颈,使计算机的普及成为可能。 什么是通用计算机? 简单来说,就是能完成所有计算任务的机器。 这样,如果在设备内部加载不同的计算程序,则只需更换软件,无需更换硬件。 现在我们的电脑可以听音乐、玩游戏、看视频、数据观察、复制解决、美术设计、搜索、在线购买、通信、远程控制等。 那几乎无处不在。 无处不在。 一台电脑在世界上。 因此,从专用计算机到通用计算机,这是历史性的飞跃,人类从此进入了计算机时代。 “现代电脑之父”冯·诺伊曼通用电脑的发明主要归功于两位天才数学家图灵和冯·诺伊曼。 图灵被称为“计算机科学之父”,他建立了通用计算机的数学模型。 这就是永垂青史的“图灵机”。 冯·诺伊曼被称为“现代计算机之父”,在图灵机的基础上,他进一步制定了通用计算机的工程框架。 这就是有名的“冯? 诺伊曼系统” 直到今天,所有的电脑都严格遵循图灵和冯·诺依曼的理论。 通用电脑比专用电脑好在哪里? 我们说经典的故事 世界上第一台电子计算机是莫西利、埃克特于1946年设计的eniac (中文翻译成“电子数字积分和计算机”),由于缺乏通用性、可变性和存储程序的机制,耗电量大,费用高,因此无法承受的重量 据说当时eniac一运行,整个费城的灯光就会变暗。 之后,冯·诺伊曼受军方委托改进了eniac方案,根据图灵机的设想,提出了新的计算机设计方案edvac (中文翻译为“离散变量自动电子计算机”),完美地处理了eniac的所有课题。 这就是有名的“诺伊曼机”,是世界上第一台通用计算机。 诺伊曼机最大的优点是“程序存储器”,即该程序解决为数据进入计算机内部,因此计算机可以自动依次执行这些命令,不需要从外部布线执行命令。 例如像eniac那样,程序和计算是分离的,每次交换新命令都需要将数百条线路重新连接到设备上。 一群接线员忙于进行几分钟的计算。 这样的话,效率会变差,耗电量会非常高。 根据诺依曼机的设计方案,如果程序有内存,可以制作芯片并入计算机,软件产业兴起,这是现代计算机的核心。 现在,从就业人数来看,世界硬件工程师的数量在100万人左右,软件工程师的数量超过亿人,差别非常大。 从专用计算机到通用计算机,不仅是科学的飞跃,也是科学技术的革命。 蒸汽机是18世纪的通用技术,如果电力是19世纪的通用技术,那么计算机是20世纪的通用技术,不仅改变了人类的社会组织行为,还改变了人类的日常生活习惯。 03如果机器学习的难度上升了,计算机是如何与人工智能相连的呢? 如果通用计算机的功能非常强大,你可以用它来模拟人类的所有行为。 这个研究方向是人工智能。 根据“人工智能之父”约翰·麦卡锡的说明,“(我们的目标是)远离对人类行为的研究,把电脑作为处理某种课题的工具。 这样,人工智能就不是心理学领域而是计算机领域了。 “艾伦·马西森·图灵( alan mathison turing )电脑和人工智能的思想先驱是图灵,他首先提出了用电脑模拟人类思维的构想。 1936年,24岁的图灵写了他的名作《论可计算数及其在判定性问题上的应用》,给出了“机器计算”的严格定义。 这就是“图灵机”的概念。 1950年,图灵发表了ai史上的古典论文《计算机与智能》,开头写道:“机器能思考吗? ”。 这指的是本质的问题。 本文特意证明了机器是“数字计算机”,设计了一个模仿游戏来验证机器是否具有思考能力。 这就是有名的“图灵测试”。 机器是否有真正的思考能力,这就是图灵留给我们的思想之谜。 整个体科学史,几乎是天才们独创的思想史,在广阔的宇宙中,其思想光如闪耀的星星,指引着人类的探索方向。 图灵的天才思想激起了后来数学家们设计“智能机器”的强烈愿望。 这就是人工智能的来源,正如麦卡锡所定义的,“人工智能是开发智能机器的科学和技术”。 二战后,在学术界和工业界的共同推动下,ai技术迅速崛起,形成了第一波ai热潮。 1956年,麦卡锡和马文·明斯基两人成立,召开了意义深远的达特茅斯会议。 参加者是当时计算机科学、认识科学、新闻科学的顶级高手,新闻论的创始人香农也参加了,ibm赞助了这次会议。 麦卡锡在会议上首次发表了术语“人工智能”,标志着这个学科的正式诞生。 最初,我对ai技术抱有很大的期待和信心,认为很快就能设计出智能机器。 1967年,在接受记者采访时,明斯基发誓说。 “再过3∪8年,我们就会制造出能达到普通人整体智力水平的机器。 阅览莎士比亚的著作,给车提供润滑油,挥动手臂,能开玩笑,而且指与人打一架的机器。 那时,机器可以以惊人的速度自学。 几个月后达到天才水平,但再过几个月其能力就无法估量了。 “当时的这句话几乎是天方夜谭,至今仍是无法控制的目标。 ai行业最先取得重大进展的是机器说明( atp )。 1959年,美籍华人数学家王浩用电脑解释了罗素的“数学原理”350个定理。 虽然只花了九分钟,罗素和怀特·海伊一起写这本书花了十年的时间。 在围棋游戏中,机器也表现出很高的“智能”,1997年ibm超级计算机“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫也是ai史上的象征。 但是,除了专家系统,早期的ai技术没有成功。 特别是对机器翻译、图像识别、语音识别等有商业价值的项目,当时的ai技术完全无法解决,从20世纪70年代到2005年已经是30多年的“ai冬天”。 为什么呢?是大家的研究方向偏离了 当时ai的研究方法首先有“符号主义”和“连接主义”两种观点。 符号主义主张,如果我们使计算机编程非常全面和强大,以纯粹的逻辑程序做法,机器可以模拟人类的所有行为,参加达特茅斯会议的科学家大部分都是符号主义的粉丝。 联结主义走着另一条技术路线,主张模拟人的神经网络,以机器学习的方式实现ai的所有目标。 有趣的是,在漫长的“ai冬天”中,象征主义是绝对的主流,但后来渐渐消失了。 连结主义是少数派,克服了寒冷,最终迎来了灿烂的春天。 为什么呢?现在回顾这段历史,很明显符号主义想设计和编程人类行为的所有问题。 这是一个明确的机器认知过程,可以用强大的通用计算机实现。 连接主义不是事先设计和编程所有的问题,而是模仿神经元的连接方法,模拟人的学习过程,是不明确的机械认知过程,但它也包含了,神经网络不是图灵机 简单来说,学习机器可以自动编程,但计算机只能人工编程,两者是不同的概念。 符号主义和连接主义的根本分支是我们不能预先设计所有的问题,不能编程。 不存在“万能算法”。 计算机就像人脑一样,通过模拟许多复杂的神经网络连接方法,刺激某种“超计算”的自组织行为,它可能具有真正的思考能力 其实,在图灵“计算机和智能”这一独创的论文中,我们观察了这个问题,最后写了一章来讨论“学习机”。 他指出学习机器和数字计算机有很大的区别。 数字计算机的程序是固定的,计算过程也是明确的,学习机是随机的,计算规则也是可以变更的。 所以,在说“基于神经网络的机器学习不是纯粹的图灵机”时,图灵自己早就预示了这个结果,所以希望成千上万的人不要休克。 我们再来说说神经网络机器学习,那个灵魂人物是w.h .皮茨和g .欣顿两个人,就像图灵和冯·诺伊曼是计算机灵魂人物一样。 皮茨发明了神经网络,欣顿将其进一步完善,在“ai冬天”中重复了30多年这个研究方向,最终取得了历史性的成功。 皮茨是拉马努金的天才 1943年,皮茨和w.s .麦克阿洛克首次提出了“神经网络”的概念。 这是一个美丽的数学理论,他们使用连锁环状的卡纳普语言互联网系统描述了神经元的各种连接方法。 这是一项开创性的工作,具有卓越的想象力。 当时麦卡洛克是芝加哥大学的神经生理学教授,皮茨是芝加哥大学旁听的流浪少年,还不到20岁,但自学精通数学。 基于匹兹堡摇滚模型,1957年罗森布拉特提出了“探测器”模型。 这是一个具备初级学习能力的单层神经网络,可以根据信号的聚合强度和阈值误差,重新调整各权重,达到理想的输出效果。 走出第一步看起来很简单,但这是“开辟天地”的重要步骤,在科学探索中,提出问题比处理问题更重要,比形成系统化更重要的是打开新的方向。 但是,这个单层神经网络几乎不实用,因为它甚至不能确定作为最简单的xor问题的一个两位二进制数是否只包含0或1。 直到1974年,欣顿提出了多层神经网络模型后,成功地处理了xor问题。 这一年,哈佛大学博士沃老板首次提出了反向传输算法(即bp算法),1986年,希恩顿再次发现了这一点,首先利用广义反向传输算法训练多层神经互联网,这就是多层神经互联网 但是当时正好是“ai冬”,这种做法也离“雪藏”已经近30年了。 如果不是欣登等少数人的重复,深度学习早就被“冻死”了,在哪里会开出春天温暖的花呢? 有兴趣的是,欣顿是布尔代数的创始人g .布尔的玄孙,布尔代数是计算机开关电路设计的数学基础,神经互联网似乎又是学习机开关电路设计的数学基础。 欣顿的困难理论可能多次源于灵魂深处对“布尔家”的荣誉感。 希恩顿后来在20世纪70年代,他提出分层神经网络的想法时,大家都不同意。 他说:“以前传达的想法确实受到关注和信任。”领导也不经常看到他。 这是最困难的时候。 “每周我都会和领导发生激烈的争论。 我总是坚持自己的想法,对领导说“那我再解释六个月”。 然后过了六个月,他说:“快到了,再给我半年。” 后来,我毅然说“再给我五年”。 据说你做了五年,据说那没用。 但是,欣顿一直坚持自己的思想,熬过了将近30年的漫长冬天,这一理论得到了世界公认。 2005年是ai史上的重要一年,希恩顿提出了深入学习神经网络的整体框架,这一成果堪比冯·诺伊曼系统。 随着互联网和大数据的兴起,深度学习也很快获得了有效的商业应用,以前传达的ai技术无法解决的机器翻译、图像识别、声音识别等课题也取得了突破性的进展。 因为训练神经网络需要庞大的数据,这个条件在前网络时代是不存在的。 现在谷歌神经网络翻译( gnmt )接近人工翻译的水平,ibm开发的超级计算机“华生”也以绝对的特征赢得了人机辩论赛。 特别是阿尔法戈以深度学习闻名,震惊了世界,向大家展示了神经网络技术的无限潜力。 希恩顿也被称为“深度学习教父”,成为ai界的神级存在,后来加入Google企业,现在是Google副总裁,年在Bloomberg新闻上被选为改变世界商业结构的50人中之一。 深入学习已成为当今ai研究的绝对主流,广泛应用于自动驾驶、物联网框架、医疗诊断、自然语言理解、科研数据观察、仿生等多个商业行业,推动了全球ai热潮。 很多人相信21世纪会是ai时代。 正如深度学习的另一个先驱y .本希奥总结的那样,“经历人工智能的冬天后,深度学习神经网络的强烈回归不仅给了技术上的胜利,也给了整个科学行业以教训。 回顾人工智能的历史,即使一点好的想法被当时的技术状态限制得看起来没有希望,我们也必须认识到不能放弃。 鼓励多样性的科研课题和方向有一天可能会使一度低落的行业复兴。 “看起来很美,智能机器似乎梦想成真,但人们的怀疑从未停止。 04深度学习的理论极限神经网络是什么? 那是电脑还是学习机? 深入学习的工作原理是什么? 这些还是未知之谜 阿尔法戈的发明者德米斯·哈扎比斯博士在乌镇接受记者采访时说,他不知道阿尔法戈是怎么决定下一盘棋的。 德克萨斯农工大学的数学家fair访问科学家boris hanin说:“最接近事实的是,我们几乎不知道神经网络的实际机制,不知道真正有发现内在力量的理论。 希恩顿在谷歌I/o大会上也说,没有人知道神经网络是如何工作的。 阿尔法戈的发明者德米斯·哈扎维斯现在很受欢迎,风景看起来无限,但最近人们的反省和疑问也越来越多,那本质上是统计的做法,没有形成真正的理解能力。 因为没有人类那样的学习和认知能力。 希顿本人其实对深入学习做了很多反省,对逆向传递这个核心算法表示“深表怀疑”,提出“抛弃一切,从头开始”,为了使神经网络更聪明,要使“无监督学习”更好 杨立昆( yann lecun )是facebook首席ai科学家,他发明了有名的卷积视觉神经网络,与希奥、本希奥共同获得年度图灵奖,这是深入学习的三位先驱。 他非常确实地指出了深度学习的局限性。 比如,训练数据太多无法推理,也没有常识,“这些深入的学习系统不知道如何整合抽象的知识”。 他进一步解释了。 “考虑到动物和宝宝是如何学习的,生命的前几分钟、几个小时、几天,学习很多东西很快,看起来像天生的,但实际上他们不需要硬编码。 因为他们很快就能学到东西。 “他承认,他们还不知道那些方法能帮助深入学习。 清华大学人工智能研究院院长张涩院士也认为,目前基于深度学习的ai技术触及天花板,最有效的是围棋类游戏、图像识别、语音识别三个行业,但其他行业很难发生阿尔法戈这样的奇迹。 他进一步分析说,深入学习要发挥潜力,必须具备“充分的数据”、“明确性”、“完全的新闻”、“静态环境”、“特定的行业”五个条件,实际上只要满足这些条件,机器就会“照亮”。 因为断言“现在的深度学习本质上是基于概率统计的”,“这个做法本身一般找不到‘有意义的’法则,仅凭反复出现的模式,即数据是无法达到真正的智能的。 “大佬们谈了这么多深入学习的缺点和缺点,毕竟深入学习是专用的学习机,不是通用的学习机。 比如,如果做围棋的多层神经网络,就不能下棋。 做诗的深度学习算法,就不能作曲 也就是说,有多少学习任务? 大概需要做几台学习机? 就这样,我们又陷入了图灵以前的专用计算机般的困境。 因为人类面临的学习任务也源远流长,无法制造无限多的不同学习机。 从大街到简,只有专用电脑,没有通用电脑的话,就做不出真正的电脑。 只有专用学习机,没有通用学习机,也不能真正的人工智能 我们还缺乏通用学习机的基础理论,这是目前ai研究面临的最大“瓶颈”。 “05从通用学习机向通用人工智能转移,现在谈论最多的是“通用人工智能”( agi )的概念,不是“通用学习机”的概念。 哈扎比斯博士在剑桥大学演讲时,团队的最终目的是让alphago实现agi,如果单独采用灵活变通的算法,就像人脑系统一样,学习只用原始数据如何学习任意任务。 对agi的一般定义是可以模仿人类所有行为的ai,也就是机器可以执行人类所有能完成的任务。 这是强ai的定义 通常认为agi不能用通用计算机实现,但可以用通用学习机实现。 因为计算机和人脑是一样的,所有任务的程序都要事先设计,编程,从数据和经验中不断学习,不断修正和概括错误,最终掌握自己编程的任务 最先提出“通用学习机”概念的是美国俄亥俄州立大学数学博士熊楚瑜,现在ai界大概只做了20多件此案,属于极少数派。 但是,如果远远与“通用计算机”相呼应的话,“通用学习机”是适合的新概念,相当简洁优美。 什么是通用学习机?简单来说,是从归零状态开始,通过数据输入,对任何学习任务都可以自动编程的机器。 因此,我们把机器分为两类。 一个是计算机,是人工编程的。 那个程序是固定的。 另一个是学习机,是自动编程的。 那个程序可以变更。 深度学习也从归零状态开始,继续输入数据,继续调整权重参数,通过阶段性梯度下降的反向传递,最终收敛到最佳匹配的概率分配函数。 因此,深入学习的程序不断修订,不断完善,它不再是计算机,而是学习机。 不管有多多复杂的机器行为,都有其基本的数学原理 其次,用最简单的数学模型说明计算机和学习计算机的区别。 计算机和学习机都是新闻解决方案m,在m中输入数据x,在内部解决后,m输出数据y。 编程通常分为两个阶段。 首先,建立输入x和输出y的函数关系y=f(x )。 这一步被称为“数学建模”。 然后,为了解这个函数f,即用图灵机解这个方程式f。 如果f有解,图灵机在有限步内一定会得到明确的结果。 我们对这些有限步骤进行编码。 这个步骤称为“编程”,机器根据固定程序进行机械运算。 但是,机器的行为大多和复杂性并不是所有的任务都能在数学上建模,而是建立输入输出之间的明确函数关系。 不是所有的函数都可以解决。 也就是说,有些任务可以数学建模,但无法解决,成为代码形式。 所谓计算机,其模块函数f和代码是人工设计的,机器只要按照固定程序进行运算即可。 所谓学习机,模式函数f不明确,根据输入输出的匹配关系阶段性调整,最终调整索引后,机器将明确模式函数并写入代码。 这就是机器的自动编程。 专用学习机只能建立和求解某种特殊类型的模型函数,而通用学习机可以建立和求解任何类型的模型函数。 如果我们能把人工编程这个机制纳入机器内部,让机器自我学习,形成自动编程的能力,我认为机器有真正的思考能力。 这就是人工智能的本质。 从专用计算机到通用计算机,从通用计算机到专用学习机,从专用学习机到通用学习机,这是近百年来计算机和人工智能迅速发展的崎岖之路。 历史总是惊人地相似。 我们超越了图灵时代,处于巨大的历史转折点。 就像图灵提出通用计算机的数学模型,开启了20世纪人类的计算机时代一样,我们提出了通用学习机的数学模型,提供了agi工程的框架体系,21世纪的人类真的可以进入人工智能时代。 通用学习机是agi的“图灵机” 阅读原文。