当前位置:首页-文章-AI学习-正文

人工智能AI定义和原理

通过麻省理工研究团队利用 AI 发现哈利森抗生素的故事,阐述了 AI 在科学研究中的强大潜力,此故事也体现了《人工智能时代与人类未来》一书中所探讨的部分内容。介绍了 AI 智能的产生原理,包括其四个关键步骤,重点强调了模型训练是产生智能的关键,讲述了神经网络的构成以及监督学习、无监督学习和强化学习三种主要学习范式的运算方式及应用场景。

欢迎回到启职鹿-AI知识分享系列内容,这次我们将通过有趣的故事和鲜活的例子,来为大家讲解一下 AI 的基本原理以及几种常用的训练算法。相信听完之后,你不但会明白其中的原理,更能深刻理解为何全球的科技大佬们都纷纷投入到 AI 的研发中。这背后,其实隐藏着一个令人有些扎心的事实 —— 人类已经不再是世界运行规律唯一的发现者。

哈利森抗生素的故事

在讲解过程中,我们会参考一些重要的资料,其中就包括《人工智能时代与人类未来》这本书。这本书的作者是三位重量级的人物,亨利・基辛格(对,就是你知道的那个外交家基辛格),还有谷歌的前 CEO 艾瑞克・史密特,以及麻省理工计算机学院的院长丹尼尔·胡滕洛赫尔。它为我们理解 AI 的发展及其对人类的影响提供了很多有价值的视角。

让我们把时光拉回到 2020 年,麻省理工的研究团队有了一个超级厉害的发现!他们找到了一种全新的抗生素,还给它取名叫哈利森。这个哈利森可不得了,它具有广谱性,能够轻松杀灭那些已经对已知抗生素产生耐药性的细菌菌株,而且细菌似乎对它还没有产生耐药性。大家快来猜猜,这是如何被发现的呢?没错,是借助了 AI 技术。这一发现过程其实也在《人工智能时代与人类未来》中有所提及,它展示了 AI 在科学研究领域的强大潜力。研究小组先是精心准备了一个包含 2000 种已知特性分子的数据库,这些分子都被仔细地标记了是否能阻止细菌生长。然后,他们就用这个数据库来训练 AI,让它自己去学习这些分子的特征,进而总结出一套规律。给系统设定的目标是自动识别哪些分子可以抗菌。当这个模型训练好之后,研究团队就用它来审查美国 FDA 批准的药物和天然产品库里多达 6 万多种不同的分子结构,从中挑选出既能有效抗菌,又不像任何已知抗生素且必须无毒的分子。

最终AI 只发现了这一个哈利森分子符合标准,而且实验也证明它确实符合要求,还有很大希望应用于临床。大家可以想一想,如果用传统的方法去测试这 6 万多种不同的分子,那简直就是一项不可能完成的任务。讲这个故事,主要是想让大家看到 AI 在科学研究中所蕴含的巨大潜力,它甚至可以帮助人类去探索那些完全未知的领域。要知道,哈利森能作为抗生素被发现,可不是人类的功劳,而是 AI 的杰作。而哈利森这个名字,是为了向 2001 太空漫游中的超级计算机HAL9000致敬。如果你去问科研人员,为什么只有哈利森这种分子被 AI 识别出来,其他的都不行,AI 到底发现了什么规律,他们会告诉你不知道,因为我们确实不清楚 AI 是如何具体归纳出那些规则的,它是从海量的参数中总结出来的,人类无法从这些这些参数中获取任何理论依据。其实,在未知世界发现规律这件事上,除了这个例子,还有很多,比如蛋白质折叠问题、新材料的发现、量子计算中的优化、气候模型和天气预测、天体物理学和宇宙的预测等等。这就引出了一个重要的事实,AI 能够帮助人类解决未知世界的难题。仅仅是这一点,大家应该就能明白为什么当今世界的头都公司都在大力投入 AI 了吧,就像前几天的爆炸性新闻,苹果放弃了搞了二十年前的电动车项目,转而全力投入到 AI 的研究中,因为这些大佬们都很清楚,未来的科技发展必然离不开 AI。

AI 智能的产生原理

怀着一种被深深震撼的心情,我们来初步探究一下 AI 里面的 I,也就是 Intelligence(中文智能的意思),它到底是如何产生的呢?它的原理又是什么?首先,我们要知道,目前阶段的 AI 还没有达到科幻片里那种具有自我意识的程度,而且距离通用人工智能 AGI 还有很长的路要走。我们现在所说的智能还比较局限,它是通过机器的自我学习来获得的。目前AI 的工作原理大概包含四个关键步骤:数据的收集与处理、模型的训练、优化与评估、部署与应用。在这里面,我们需要重点了解的是模型的训练,因为它可是产生智能的关键所在。在上世纪 80 年代以前,科学家们试图把解决问题的各种规则一条一条地交给计算机,希望机器能按照这些规则来解决问题,可是很快就发现,这条路根本走不通。为什么呢?因为世界上的规则实在是太的多,多到我们甚至都无法确定从哪里开始。于是,神经网络就应运而生的。现在,我们不需要把规则告诉它,而是让机器自己去观察、自己去学习,然后它自己就能总结出对应的规则。神经网络技术是受到人脑神经网络的启发而产生的,不过它与人脑不同的是,AI 神经网络是由输入层、很多中间层和输出层组成的,一个深层神经学习内网至少要有十层。使用这种神经网络主要分为两个步骤,一是训练,二是推理。一个没有经过训练的 AI 就像一堆毫无用处的为参数,要让它变得有用,就需要不停地给它输入大量的数据来进行训练,让它通过这个过程去自我学习。每次输入数据后,网络里的参数就会根据输入调整一次权重,这就是我们所说的机器学习。当训练到一定程度后,所有的参数就固定下来了,这个时候的 AI 模型就算是训练完成了,我们就可以用它来对新的情况进行推理,输出结果。

我们常说的训练模型,指的就是这个机器自我学习的过程。举个例子,就拿 OpenAI 的 GPT 来说,现在已经是 4.0 版本了,它是在 2003 年 4 月完成训练的,目前还没有公布 4.0 有多少个参数,但是 GPT3.0 有 1750 亿个参数,所以 4.0 的参数肯定是要多得多。每次我们使用 ChatGPT 的时候,其实就是在使用这个训练好的量模型进行推理,而且不会对模型本身造成任何改变。另外,训练像 GPT 这样的大规模模型需要消耗大量的计算资源和时间,通常需要几周到几个月,具体取决于使用的硬件模型的大小、训练的复杂度以及优化的效率等因素。OpenAI 在训练 GPT 模型时会使用成百上千的 GPU 或者更先进的 TPU 进行并行处理,以加速训练过程,所以日后搞 AI 的瓶颈不是软件层面,而是硬件。这就是为什么英伟达会一路狂飙,以及美国要对华禁止出口4090 高端显卡芯片的原因,因为限制住你的算力,就能够限制住你在 AI 产业上的参考数。

下面我们来说说神经网络,这种神经网络到底是如何运算的呢?根据训练数据的类型和学习任务的性质,大致可以分为监督学习、无监督学习和强化学习这三种主要的学习范式。我们先来看看监督学习,在监督学习中,训练数据包含输入和与之对应的输出结果,神经网络的目标是能够根据给定的输入预测出正确的输出。这种学习方式适用于那些我们已经知道正确答案的问题,比如图像分类、语音识别、生活翻译等。就像刚才说的抗生素的例子,就是典型的监督学习训练,先给系统 2000 组匹配好输入和输出结果的原始数据,然后让系统自行去对的学习,找出其中的规律,最后让系统对新的输入预测出结果。无监督学习就是不给系统任何输出结果,让 AI 模型自己从中发现规律,这种方法通常用于发现数据中的隐藏模式、结构或分布。举个例子,在使用了这种模式的搜索引擎中搜索米其林餐厅,然后再搜索服装,给到的结果可能就是名牌服装,而不是价格低廉的衣服。为什么会这样呢?因为系统发现了规律性,去米其林餐厅的人通常穿名牌服装,这个规律可不是程序员事先给定的,而是 AI 自己琢磨出来的。强化学习就比较特殊,它是通过与环境互动得到的反馈来学习的,是根据其所采取的身体动作获得的奖励或惩罚来不断地自我调整,目标是制定一个策略,以最大化获得长期的奖励。强化学习被用于游戏机器人导航、自动驾驶等领域,系统需要根据环境的反馈作出实时的决策。举个例子,阿尔法 Zero 每下一步棋都会实时地运算,并预估出最终的胜率是上升还是下降,通过及时反馈去不断地第的下棋策略,最终目的是把胜率调整到越高越好。

AI 学习范式及应用举例

当然这三种范式只是一个笼统的分类,如果继续展开的话,监督学习的算法还有卷积神经网络、循环神经网络、长短期记忆网络、门控循环网络和 Transform 模型,我们等会儿再详细说一下 Transform 模型。无监督学习算法有自编码器和深度对抗网络,强化学习有 Q - learning、Deep Q - Network 等等。这些算法大家不需要刻意去记,只要知道它们有各自不同的算法就可以了。为了加深大家的印象,我们用机器翻译来举例。机器翻译最初依赖于按监督学习,比如中英翻译需要先把大量专门的中文和英文的对照文本交给系统,以便模型能学习从中文到英文的转换规则,然而,这种方法有一定的局限性,因为高质量的对照文本是有限的,尤其是对于那些小语种。为了解决这个问题,研究者引入了一种方法,首先使用对照文本库进行监督学习的预训练,让模型建立好基础知识,随后采用无监督学习,给系统大量的文本,不用管是什么内容、什么语言,让系统自我学习和调整,让它自己去理解语言结构和语境。这种方法被称为平行语料库技术,虽然这种方法没有之前的精确,但机器通过海量数据的学习,输出的结果基本上能大差不差,训练效果也就好得多。当谷歌翻译开始使用这种平行语特质的深度神经网络后,其翻译的性能提高了 60%,且还在不断地提高,用过 ChatGPT 的朋友应该会发现 GPT 输出的中文结果已经很流畅,语言组织能力已经非常可用,甚至还能写诗。那怎么实现呢?这就是得益于一种叫 Transform 的技术,它允许模型在处理任何词语时考虑到句子中的所有其他词语,这种能力是 Transform 特别擅长理解和表达语言中的细微差别。假设有一句话,天气很冷,因此我穿了一件厚外套,在这个例子中,Transform 能够理解以下几点:天气很冷和穿了一件厚外套之间是因果关系,因为它能捕捉到因此这个词表达的逻辑联系,理解穿厚外套是因为天气冷;它还能理解我和穿之间的主位关系,即我是执行穿这个动作的主体;同样,穿能够识别一件厚外套作为穿的直接宾语,理解这个动作的对象是什么。说了这么多,相信大家还是有一个疑问,就是这玩意到底是怎样工作的,怎么就一大堆数据扔给他它自己在哪里吭哧吭哧地憋大招,过段时间它告诉你学会了,那你一问它它还真就会,你还是想搞清楚它到底是怎么学会的?那实际上这就像一个黑盒,就连 OpenAI 的开发者都没搞明白 ChatGPT 为什么会这么的好工作,我们目前实际上是在经历一个大变革,正在目睹一个新智慧形态的存在和觉醒,正在见证一个能扩展人类能力、能自主学习和适应、能超越传统计算能力、能理解人类语言的新形态的诞生。但是听到这里的,你相信已经对 AI 的原理有了那么一点点的认知升级,这有助于你去吸收和消化后面人工智能的其他课程内容。

本文“人工智能AI定义和原理”为本站原创作品,发布者:鹿小编,其版权均为启职鹿所有。
严禁任何未经授权的转载行为,若需转载,请与service@qizhietd.com联系并取得授权确认后。请清晰标明文章来源出处以及原作者署名,共同维护良好的创作环境。
同时,启职鹿诚邀您加入我们的平台,共享您的见解与思考,携手促进职场技能的提升。