免责声明:本篇所使用的图片部分来自网络,版权属于原作者。我们已尽力对图片进行来源标注,如有疏漏,请及时联系。本号不对图片的版权问题承担任何责任。
图源:https://aitntnews.com/newDetail.html?newId=7759
人工智能(AI)是当今科技领域的核心热点之一,事实上,人类对“智能化”的追求并非始于现代。早在几千年前,古代文明便已开始探索如何让机械装置“动起来”、“聪明起来”。从中国古代的自动装置到17世纪的机械哲学,再到现代人工智能的崛起,这是一段跨越千年的智慧追寻之旅。
01 从自动化到智能化:人类对机械智慧的探索
在古希腊和古中国等古代文明中,人类就开始尝试创造各种自动装置,如自动门、自动玩具等。这些机械装置虽然简单,但展现了人类对自动化和智能化的最初追求。
指南车:古代的“自动导航”系统
指南车是中国古代的一种机械装置,用于指示方向。无论车子如何转向,车上的木人手臂始终指向南方。这一功能的实现依赖于车内的齿轮系统。当车子转弯时,齿轮会自动补偿转向的偏差,确保木人始终指向南方。
图源:http://www.360doc.com/content/16/0117/16/1204156_528624374.shtml
铜壶滴漏:古代的“自动计时器”
铜壶滴漏是中国古代的一种计时装置,通过水滴的流动来测量时间。其设计极为巧妙:上壶滴水至下壶,水位的变化推动浮箭上升,从而显示时间。为了保持水流的稳定,工匠们设计了多级水壶系统,确保水位恒定。
图源:http://www.360doc.com/content/16/0117/16/1204156_528624374.shtml
这些早期的发明为后来的机器智能研究提供了灵感。
17世纪的机械哲学:理性思维的机械化
17世纪,科学家笛卡尔和哲学家霍布斯提出了“机械哲学”的思想。他们认为,自然界和人类行为都可以通过机械原理来解释。如果人类的身体和思维过程可以被理解为一系列机械操作,那么理论上就有可能用机器来模拟这些过程。
图源:https://www.wikiwand.com/zh/articles/%E8%BF%98%E5%8E%9F%E8%AE%BA
18世纪:自动机
18世纪的欧洲,工匠们制造了许多复杂的自动机,例如能够写字的机械人偶。这些装置虽然没有真正的智能,但它们展示了机械装置模拟人类行为的探索。
图源:https://commons.wikimedia.org/wiki/File:Euphonia-Joseph-Faber-1870.jpg
19世纪初期:逻辑机器
19世纪,数学家查尔斯·巴贝奇设计了“分析机”,这是第一台具有通用计算能力的机械装置。虽然它并未真正建成,但它的设计理念为现代计算机奠定了基础。
图源:https://m.baike.com/wikiid/1254251540901377979
这种将世界视为"精密机器"的观点,为后来的人工智能研究提供了重要的哲学基础。这一思想直接影响了后来的计算机科学和人工智能研究。
19世纪中期:乔治·布尔与符号逻辑
乔治·布尔(George Boole)在1847年出版的《思维法则》(The Laws of Thought)一书中,第一次用符号语言描述了思维的基本法则,真正使逻辑代数化。
图源:https://www.ee.cityu.edu.hk/~gchen/pdf/Boole.pdf
布尔的符号逻辑为后来的计算机科学和人工智能研究提供了重要的理论基础。
02 人工智能的萌芽:从神经元模型到“图灵测试”(1940s-1950s)
在古代自动装置和机械哲学的基础上,人工智能的思想逐渐萌芽。随着电子计算机的发明,人类终于拥有了模拟思维过程的工具。
1943年:人工神经元模型的诞生
1943年,沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)发表了一篇划时代的论文,提出了第一个人工神经元模型。这一模型试图用数学和逻辑来模拟人脑神经元的工作方式,麦卡洛克和皮茨的模型虽然远不及今天的深度学习网络复杂,但它的核心思想却极具前瞻性:通过简单的“开关”机制(类似于神经元的激活与抑制),可以实现逻辑运算。
这一突破让人们开始畅想,机器是否也能像人类一样“思考”。尽管当时的计算机还处于“婴儿期”,但这项研究无疑点燃了科学家们对人工智能的最初热情。可以说,这一模型是人工智能的“胚胎”,它让科学家们第一次意识到,或许可以用机器来模仿人类的思维。
图片来源:https://blog.csdn.net/kebu12345678/article/details/54915719
然而,人工神经元模型的提出仅是理论上的突破,要将这一思想付诸实践,还需要计算机硬件的支持。1945年,冯·诺依曼提出的存储程序计算机架构,为人工智能的实现奠定了技术基础。
1945年:冯·诺依曼结构奠定现代计算机基础
1945年,著名数学家约翰·冯·诺依曼(John von Neumann)在一份名为《第一草案》(First Draft of a Report on the EDVAC)的报告中提出了一种全新的计算机设计理念——冯·诺依曼结构。这一设计奠定了现代计算机的基本框架,被认为是计算机科学史上的里程碑。
图源:https://cloud.tencent.com/developer/article/1841307
硬件架构逐步完善的同时,科学家们开始探索如何让机器具备学习能力。1949年,赫布学习规则的提出,为人工智能的学习机制提供了重要的生物学启发。
1949年:赫布学习规则——“用进废退”的智慧启示
1949年,加拿大心理学家唐纳德·赫布(Donald Hebb)在他的著作《行为的组织》(The Organization of Behavior)中提出了赫布学习规则(Hebbian Learning)。这条规则简单却深刻:“神经元之间的连接强度会随着它们的共同激活而增强。”换句话说,“用进废退”不仅适用于肌肉训练,也适用于大脑的学习机制。
图片来源:https://slideplayer.com/slide/15060066/
赫布的理论为人工神经网络的学习算法提供了生物学启发,这一思想后来被用来设计神经网络的学习机制,即通过“经验”来学习,成为机器学习的早期灵感来源。
随着理论和技术的不断推进,人工智能领域开始面临一个更深刻的哲学问题:机器是否能够真正“思考”?1950年,阿兰·图灵通过“图灵测试”尝试回答这一问题,为人工智能设定了明确的目标。
1950年:图灵测试——机器能思考吗?
1950年,计算机科学的先驱阿兰·图灵(Alan Turing)在他的论文《计算机器与智能》(Computing Machinery and Intelligence)中提出了一个大胆的问题:“机器能思考吗?”为了回答这个问题,图灵设计了一项实验,后来被称为“图灵测试”。图灵测试的核心思想是:如果一台机器能够通过文字对话让人类无法分辨它是机器还是人类,那么我们就可以认为这台机器具有智能。
图灵的设想在当时堪称“科幻”。要知道,那时的计算机还只能进行简单的数学运算,距离能够与人类对话的智能系统相去甚远。然而,图灵的思想却为人工智能领域提供了一个明确的目标:让机器能够像人类一样交流、推理和学习。
图源:https://voi.id/zh/teknologi/393004
今天,图灵测试仍然是人工智能领域的重要哲学问题。尽管像ChatGPT这样的语言模型已经能够通过对话迷惑许多人,但是否真正“思考”仍然是一个悬而未决的问题。图灵的远见卓识让他成为人工智能领域的“预言家”。
1956年:达特茅斯会议——人工智能学科的诞生
1956年夏天,一场改变历史的会议在美国新罕布什尔州的达特茅斯学院召开。这场会议由约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)、克劳德·香农(Claude Shannon)和纳撒尼尔·罗切斯特(Nathaniel Rochester)等科学家组织,旨在探讨如何让机器具备人类的智能。在这次会议上,约翰·麦卡锡首次提出了“人工智能”(Artificial Intelligence, AI)这一术语,并大胆设想,机器可以像人类一样“思考”和“学习”。
图源:https://www.researchgate.net/figure/Museum-of-Comparative-Zoology-field-party-at-Crystal-Cliffs-Nova-Scotia-August-1956_fig3_275986525
这场会议不仅确立了人工智能作为一个独立学科的地位,也为未来几十年的研究方向奠定了基础。会议期间,科学家们讨论了如何让机器进行推理、学习和解决问题,并提出了许多开创性的想法。例如,如何用逻辑和数学来模拟人类的思维过程,如何让机器通过经验改进自己的能力等。尽管当时的技术水平还不足以实现这些目标,但这次会议无疑是人工智能历史上的一个里程碑。
总结
人工智能的发展并非孤立的事件,而是多学科交叉推动的结果。人工神经元模型为模拟人类思维奠定了数学和逻辑基础,冯·诺依曼结构则为这些理论的实现提供了硬件支持。与此同时,赫布学习规则从生物学角度启发了机器学习的早期算法设计,而图灵测试则为人工智能设定了明确的哲学目标。这些理论、技术和思想的相互作用,共同构成了人工智能萌芽阶段的重要基石,推动了这一领域从设想走向现实的初步探索。
03 第一次AI热潮(1956-1974):人工智能的初次腾飞
1956年:达特茅斯会议
1956年达特茅斯会议的召开,标志着人工智能作为独立学科的诞生。在接下来的近二十年里,科学家们满怀热情,试图让机器具备人类的推理、学习和问题解决能力。这一时期虽然技术尚不成熟,但却是人工智能历史上充满理想主义和探索精神的腾飞时代。
1956年:逻辑理论家——符号推理的首次实践
在第一次AI热潮中,科学家们的一个重要目标是让机器能够像人类一样解决数学和逻辑问题。1956年,艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)开发了逻辑理论家(Logic Theorist),这是世界上第一个被称为“人工智能”的程序。逻辑理论家能够证明数学定理,甚至在某些情况下比人类更高效。
图源:http://www.comp.hkbu.edu.hk/~jiming/COMP7160-JLIU-4-On-Evolution-of-Research.pdf
随后,纽厄尔和西蒙又开发了通用问题求解器(General Problem Solver, GPS),试图构建一个能够解决任何问题的通用算法。GPS的核心思想是将问题分解为一系列子问题,并通过搜索找到解决方案。尽管GPS的实际能力有限,但它提出的“问题分解”和“搜索”方法成为人工智能领域的重要基础。
1957年感知器的诞生:从赫布法则到感知器模型
赫布的理论点燃了许多科学家的灵感,其中最具突破性的一步来自美国心理学家弗兰克·罗森布拉特。1957年,他在康奈尔大学航天实验室提出了感知器(Perceptron)模型,这是第一个用算法定义神经网络的尝试。
图源:https://finance.sina.cn/usstock/hlwgs/2016-02-23/tech-ifxprucu3124795.d.html
感知器的设计灵感直接来源于大脑的神经网络。它由两层神经元组成:输入层接收外界信号,输出层则由麦卡洛克-皮茨神经元(阈值逻辑单元)构成,负责处理信号。简单来说,感知器模拟了神经元的“对话”,让机器具备了最初的“学习”能力。尽管感知器的功能在当时还很有限,但它的出现标志着人工智能从理论走向实践的第一步。赫布法则的“用进废退”理念,经过罗森布拉特的巧妙转化,成为了人工智能历史上不可忽视的起点。
图源:https://cloud.tencent.com/developer/article/1167051
罗森布拉特在一台IBM-704计算机上模拟实现了“感知器”神经网络模型。感知器占据了整个实验室,它包括三层结构,运作机制并不复杂。感知器的一端,400个光传感器模拟视网膜;传感器多次连接一组512个电子触发器,当它通过一个特定的可调节的兴奋阀值时就会像神经元一样激发。这些触发器连接到最后一层,当一个物体与感知器受训见过的对象相互匹配时,它就会发出信号。这个模型可以完成一些简单的视觉处理任务。然而,感知器的功能非常有限,无法解决非线性问题(如XOR问题),这一局限性在1969年被明斯基和帕帕特的研究明确指出,导致神经网络研究一度停滞。
1958年:LISP语言问世,人工智能迎来专属编程语言
1958年,麻省理工学院的约翰·麦卡锡设计了LISP(LISt Processing)语言,这是世界上第一个专为人工智能研究开发的编程语言。LISP以其灵活的列表数据结构、递归函数处理能力以及“代码即数据”的特性,成为符号计算和复杂数学表达的理想工具。LISP还引入了自动垃圾回收机制,这一特性在当时的编程语言中尚属少见。LISP的设计深受λ演算(Lambda Calculus)的启发,并在早期的人工智能项目(如ELIZA和SHRDLU)中得到了广泛应用。
图源:https://betterprogramming.pub/the-fundamental-theories-behind-artificial-intelligence-b1fa9d75c552
LISP的出现为人工智能研究提供了强大的技术支持,尤其在开发早期的专家系统和符号推理程序时表现卓越。它被广泛应用于诸如ELIZA、SHRDLU和DENDRAL等人工智能项目,奠定了人工智能领域的技术基础。即便在今天,LISP的变种(如Common Lisp和Scheme)仍然在某些研究领域中占据重要地位。
图源:https://www.shutterstock.com/image-illustration/lisp-programming-language-code-on-dark-1979820623
LISP不仅推动了人工智能的发展,其设计理念还对后来的编程语言(如Python和JavaScript)产生了深远影响。
1960年代:模式识别崭露头角,专家系统初露锋芒
全球,1960年代——人工智能研究进入了一个新的探索阶段,模式识别成为该领域的重要研究方向。科学家们致力于开发算法,让计算机能够从复杂数据中识别特定模式或结构。早期的研究成果包括光学字符识别(OCR)系统和语音识别技术的雏形。OCR系统通过分析字符的几何特征实现文本提取,而语音识别则尝试利用声学特征区分语音信号。有趣的是,世界上第一个标准化字符识别OCR-A于1968年由瑞士字体设计师阿德里安·弗鲁提格(Adrian Frutiger)设计开发,据传它至今仍是Veryfi标志的灵感来源。
图源:https://www.youtube.com/watch?v=9c128WZKMwo
与此同时,专家系统的概念开始萌芽。研究者们尝试构建基于规则推理和知识库的计算机程序,以模拟人类专家解决特定领域问题的能力。尽管这一时期的专家系统尚处于实验阶段,但它们展示了人工智能在实际应用中的巨大潜力。
模式识别和专家系统的早期探索为人工智能从符号主义向数据驱动的学习方法转变提供了桥梁,也为后来的图像识别、语音识别和自然语言处理等领域的发展铺平了道路。
1965年:DENDRAL系统
斯坦福大学,1965年——世界上第一个专家系统DENDRAL正式诞生。由计算机科学家爱德华·费根鲍姆(Edward Feigenbaum)和化学家约书亚·莱德伯格(Joshua Lederberg)领导的团队开发,DENDRAL旨在帮助化学家分析复杂的分子结构,特别是通过质谱数据推断有机化合物的分子组成。
图源:https://www.britannica.com/browse/biographies/technology/computer-science
DENDRAL首次将领域专家的知识系统化,并转化为计算机可用的形式。化学家将分子结构和化学反应的知识编码为规则,DENDRAL通过这些规则对输入数据进行分析,并生成可能的分子结构。它的成功不仅展示了人工智能在特定领域的应用潜力,还引入了“知识工程”的概念,即将人类专家的知识系统化并转化为计算机可用的形式。但是DENDRAL的成功依赖于化学领域的专家知识,这一方法难以扩展到其他学科。
图源:https://www.linkedin.com/posts/aifa-labs-official_at-stanford-university-edward-feigenbaum-activity-7224782155195809793-c3Yh
DENDRAL的问世标志着人工智能从通用推理向特定领域应用的转变。它的成功直接推动了专家系统的发展,催生了诸如医学诊断系统MYCIN和地质勘探系统PROSPECTOR等后续成果。DENDRAL的影响力延续至今,其知识表示和推理方法为现代人工智能技术(如知识图谱和推理系统)奠定了理论基础。
1966年:ELIZA——第一代聊天机器人
1966年,麻省理工学院的约瑟夫·魏泽鲍姆(Joseph Weizenbaum)开发了ELIZA,这是人工智能历史上第一个能够与人类进行对话的程序。ELIZA的设计灵感来自心理治疗师的对话模式,它通过简单的关键词匹配和模板生成技术,模拟了治疗师与患者的交流。
例如,当用户输入“我感到很沮丧”时,ELIZA可能会回应:“为什么你感到沮丧?”这种看似“聪明”的对话实际上是基于预设规则的简单文本处理。然而,尽管ELIZA的能力非常有限,它却引发了人们对计算机与人类互动潜力的广泛讨论。
图源:https://www.youtube.com/watch?v=zhxNI7V2IxM
魏泽鲍姆后来对ELIZA的影响感到矛盾。他发现,许多人竟然对ELIZA产生了情感依赖,甚至认为它“理解”了他们的感受。这一现象让魏泽鲍姆意识到,人工智能的社会影响可能比技术本身更加深远。魏泽鲍姆认为,ELIZA的成功反映了人类对机器的过度信任,而非机器真正的智能。ELIZA不仅是自然语言处理领域的一个重要里程碑,也揭示了人类与机器互动中的心理复杂性。
1969年:感知机的局限性被揭示,人工智能研究遭遇重大挑战
1969年,人工智能领域迎来了一次重要的理论反思。麻省理工学院的马文·明斯基(Marvin Minsky)和西摩·帕普特(Seymour Papert)在其著作《感知机》(Perceptrons)中揭示了单层感知机(最初由弗兰克·罗森布拉特(Frank Rosenblatt)于1958年提出)的数学局限性。他们指出,这种早期的人工神经网络模型无法解决非线性可分问题,例如著名的XOR问题(异或问题)。由于当时缺乏有效的算法来训练多层神经网络,神经网络研究在接下来的十几年中陷入低谷。
图源:https://medium.com/@lmpo/a-brief-history-of-ai-with-deep-learning-26f7948bc87b
这一事件对人工智能领域产生了深远影响。研究资金被削减,许多学者转向其他方向,神经网络研究进入低谷。然而,这一理论反思也为后来的突破奠定了基础。1980年代,随着反向传播算法的提出,多层神经网络重新获得关注,最终推动了深度学习的崛起。
1970年:SHRDLU语言理解系统问世,人工智能迈出语义理解新步伐
1970年,麻省理工学院的特里·温诺格拉德(Terry Winograd)开发了SHRDLU,一个能够理解和执行自然语言指令的人工智能系统。SHRDLU运行在一个虚拟的“积木世界”中,用户可以通过自然语言与系统交互,例如“把红色的方块放在蓝色的立方体上”或“有多少个绿色的物体?” 系统能够理解这些指令并在虚拟环境中执行相应操作。
SHRDLU的成功得益于其结合了语法分析、语义理解和逻辑推理的能力。SHRDLU通过语义网络表示积木世界中的对象及其关系,并结合逻辑推理实现了语言理解。这一系统展示了人工智能在自然语言处理领域的潜力。
图源:https://www.reyesandres.com/2020/12/31/summer-computer-vision-project/
然而,SHRDLU的局限性也显而易见。它的成功仅限于高度受限的“积木世界”,无法扩展到更复杂的现实场景。
SHRDLU的局限性反映了人工智能在处理开放领域问题时的不足,推动了后续研究向更通用的语言理解系统发展。
1973年:英国“莱特希尔报告”发布:理想与现实的碰撞
1973年,英国数学家詹姆斯·莱特希尔(James Lighthill)发布了一份关于人工智能研究现状的报告。这份报告由英国政府委托撰写,旨在评估人工智能研究的进展及其实际应用价值。然而,莱特希尔在报告中对人工智能领域提出了严厉批评,认为其未能实现预期目标。
报告指出,人工智能的研究成果主要集中在狭窄领域(如棋类游戏和简单的专家系统),而在通用智能和自然语言理解方面的进展极为有限。此外,莱特希尔认为,人工智能研究的高成本与低回报不成比例,政府应将资源投入到更有前景的领域。
图源:https://www.sciencecampaign.org.uk/what-we-do/annual-lecture/
这份报告直接导致英国政府大幅削减了对人工智能研究的资助,许多项目被迫中止。这一事件被认为是人工智能领域第一次“寒冬”的重要导火索之一。全球范围内,人工智能研究的资金支持和公众兴趣都显著下降。
04 第一次AI寒冬(1974-1980)
在经历了1956年至1974年的第一次AI热潮后,人工智能领域迎来了第一个“寒冬”。这一时期,研究进展的停滞和外界期望的落空使得AI研究陷入低谷。科学家们曾经充满信心地认为,机器可以在短时间内达到人类智能的水平,但现实却给了他们一记沉重的打击。
图源:https://www.algotive.ai/blog/the-history-of-artificial-intelligence-machine-learning-and-deep-learning
1970年代中期至1980年代初,人工智能领域陷入了第一次“寒冬”。研究进展停滞、技术瓶颈暴露以及外界期望落空,使得AI研究遭遇信任危机,资金支持大幅削减。
技术瓶颈与符号主义的局限
早期AI系统(如逻辑理论家、GPS和ELIZA)依赖符号主义,通过预定义规则进行逻辑推理,但在处理复杂、动态环境时表现不佳。问题如“组合爆炸”“框架问题”和“知识获取瓶颈”暴露了符号主义方法的局限性,难以实现真正的智能。
硬件限制与计算能力不足
1970年代的计算机硬件性能低下,处理速度慢、存储容量有限,且缺乏并行计算能力。这使得训练多层神经网络几乎不可能,直接导致神经网络研究停滞,AI发展受限。
经费削减与信任危机
1973年的莱特希尔报告批评AI研究高成本低回报,促使英国政府削减资助。美国DARPA因语音理解项目未达预期也减少资金支持。媒体的过度宣传进一步加剧了公众对AI的误解,当技术未能兑现承诺时,AI领域陷入信任危机。
启示与转折
第一次AI寒冬暴露了符号主义和硬件限制的短板,但也推动了数据驱动方法(如神经网络)的探索,并为计算机硬件的发展奠定了基础。这一低谷期为AI的复兴积累了宝贵经验。
下期预告:第二次AI热潮、寒冬与崛起... 深度学习的复兴与奠基
内容来源:IF 实验室