啥是“AIGC”,一分钟带你了解AI技术词#AI大模型#AI科普#AI词汇

说起近期的热门科技词汇,a i g c当之无愧位列其中。但你真的了解a i g c吗?从某一天开始,我们突然发现a i可以帮忙生成文字、图片、音频视频等等内容了,而且让人难以分清背后的创作者到底是人类还是a i。这些a i生成的内容被叫做a i g c,它是a i generated content,即a i生成内容的简写。

像chat g p t生成的文章,github co pilot生成的代码,mid johnny生成的图片等等,都属于a i g c。而当a i g c这个词在国内火爆的同时,海外更流行的是另外一个词generative a i即生成式a i从字面上来看,生成式a i和a i g c之间的关系很好理解。生成式a i所生成的内容就是a i g c。

所以呢chat g p t、github co pilot, mid journey等都属于生成式ai。由此可见,a i g c和生成式a i的概念都是很简单直白的。但因为a i g c这个词在国内比生成式a i更加流行,很多语境下a i g c也被用于指代生成式a i。

那么生成式a i和a i机器学习、监督学习、无监督学习、强化学习、深度学习、单元模型等等词汇之间又是什么关系呢?有没有一种剪不断理还乱的感觉?这个很难一言以蔽之,但通过一张图就可以直观理解它们之间的关系了。a i也叫人工智能,是计算机科学下的一个学科。指责让计算机系统去模拟人类的智能,从而解决问题和完成任务。

早在一九五六年,a i就被确立为了一个学科领域,在此后数十年间经历过多轮低谷与繁荣。机器学习是a i的一个子集,它的核心在于不需要人类做显示编程,而上计算机通过算法自行学习和改进去识别模式,做出预测和决策。比如如果我们通过代码告诉电脑,图片里有红色说明是玫瑰,图片里有橙色说明是向日葵。

那程序对花种类的判断就是通过人类直接明确编写逻辑达成的。不属于机器学习。机器嘛也没学。

但如果我们给电脑大量玫瑰和向日葵的图片。让电脑自行识别模式,总结规律,从而能对没见过的图片进行预测和判断,这种就是机器学习。机器学习领域下有多个分支,包括监督学习、无监督学习、强化学习。

在监督学习里,机器学习算法会接受有标签的训练数据标签就是期望的输出值,所以每个训练数据点都既包括输入特征,也包括期望的输出值。算法的目标是学习输入和输出之间的映射关系,从而在给定新的输入特征后,能够准确预测出相应的输出值。经典的监督学习任务包括分类,也就是把数据划分为不同的类别,以及回归,也就是对数值进行预测。

比如拿一堆猫猫狗狗的照片和照片对应的猫狗标签进行训练,然后让模型根据没见过的照片预测是猫还是狗,这就属于分类。拿一些房子特征的数据,比如面积、卧室树是否带阳台等和相应的房价作为标签进行训练,然后让模型根据没见过的房子的特征预测房价,这就属于回归。无监督学习和监督学习不同的是,他学习的数据是没有标签的。

所以算法的任务是自主发现数据里的模式和规律。经典的无监督学习任务包括聚类,也就是把数据进行分组,比如来一堆新闻文章,让模型根据主题或内容的特征自动把相似文章进行组织。而强化学习则是让模型在环境里采取行动,获得结果反馈,从反馈里学习,从而能在给定情况下采取最佳行动来最大化奖励或是最小化损失。

所以就跟训小狗似的,刚开始的时候小狗会随心所欲做出很多动作,但随着和训犬师的互动,小狗会发现某些动作能够获得零食,某些动作没有零食,某些动作甚至会遭受惩罚。通过观察动作和奖惩之间的联系,小狗的行为会逐渐接近训犬师的期望。强化学习可以应用在很多任务上,比如说让模型下围棋,获得不同行动导致的奖励或损失反馈,从而在一局局游戏里优化策略,学习如何采取行动达到高分。

那问题来了,深度学习属于这三类里的哪一类呢?它不属于里面的任何一类。深度学习是机器学习的一个方法,核心在于使用人工神经网络模仿人脑处理信息的方式,通过层次化的方法提取和表示数据的特征。神经网络是由许多基本的计算和储存单元组成,这些单元被称为神经元。

这些神经元通过层层连接来处理数据,并且深度学习模型通常有很多层,因此称为深度。比如要让计算机识别小猫的照片。在深度学习中,数据首先被传递到一个输入层,就像人类的眼睛看到图片一样。

然后数据通过多个隐藏层,每一层都会对数据进行一些复杂的数学运算。来帮助计算机理解图片中的特征。例如小猫的耳朵、眼睛等等。

最后,计算机会输出一个答案,表明这是否是一张小猫的图片。神经网络可以用于监督学习、无监督学习、强化学习,所以深度学习不属于它们的子集。生成式ai是深度学习的一种应用,它利用神经网络来识别现有内容的模式和结构,学习生成新的内容,内容形式可以是文本、图片、音频等等。

而大语言模型也叫l l m lavage language model,也是深度学习的一种应用,专门用于进行自然语言处理任务。大语言模型里面的大字说明模型的参数量非常大,可能有数十亿甚至到万亿个,而且训练过程中也需要海量文本数据集,所以能更好的理解自然语言以及生成高质量的文本。大语言模型的例子有非常多,比如国外的g p t lima,国内的only chat g l m等,可以进行文本的理解和生成。

以g p t三这个模型为例子。它会根据输入提示以及前面生成过的词。通过概率计算逐步生成下一个词或token来输出文本序列。

想对大语言模型背后的原理有更多了解的话,可以收看下一节视频。但不是所有的生成式a i都是大语言模型,而所有的大语言模型是否都是生成式a i这也存在些许争议。前半句很好理解啊,生成图像的扩散模型就不是大语言模型,它并不输出文本。

同时有些人认为不是所有大语言模型都是生成式a i这是因为有些大语言模型由于其架构特点,不适合进行文本生成。谷歌的bert模型就是一个例子。它的参数量和训练数据很大,属于大元模型。

应用方面。bert理解上下文的能力很强。因此被谷歌用在搜索上,用来提高搜索排名和信息摘录的准确性。

它也被用于情感分析、文本分类等任务。但同时,bird不擅长文本生成,特别是连贯的长文本生成,所以有些人认为此类模型不属于生成式ai的范畴。这些概念共同构成了生成式ai的核心要素,希望能帮助你对时下热门的a i g c建立更多了解。

下一节里我们会更深入的探索大语言模型,我们下个视频见。