首页 > 新闻资讯内容详情

傻傻分不清?盘点人工智能领域专业术语 一文看懂! 2023-05-17 14:05:00

  【CNMO新闻】人工智能(AI)的繁荣发展带来了大量术语——从“天生式AI”到“合成数据”,这些术语可能很难解析,但对于一些想踏足这个领域的人来说,这些专业术语是必须要了解的。接下来,CNMO将为大家先容下人工智能的一些专业术语,希看能帮助大家在这个快速发展的领域中前进。

人工智能
人工智能

  人工智能:旨在在机器中复制类人思维的技术。这类能力的一些例子包括识别照片中的人,在工厂工作。

  天生式AI:天生式AI是一种可以创建文本、图像、声音和视频等内收留的AI。传统的人工智能应用主要对内收留进行分类,而天生式人工智能模型则创建内收留。例如,语音识别模型可以识别你的声音,而天生语音模型可以使用你的声音创建有声读物。最近吸引公众留意力的几乎所有模型都是天生的,包括聊天机器人,如OpenAI的ChatGPT;图像创建者,如稳定扩散(Stable Diffusion)和midjourney;语音克隆程序,如esemble。

  练习数据:用于帮助人工智能模型完成任务的文本、图像、声音等信息的集合。在语言模型中,练习数据集中于基于文本的材料,如书籍、社交媒体上的评论,甚至是代码。低质量的练习数据可能会引进偏见,导致不公平的模型做出种族主义或性别歧视的决定。

  算法偏差:由糟糕的练习数据和糟糕的编程导致的错误,导致模型做出有偏见的决定。这些模型可能会基于性别、能力或种族做出不恰当的假设。实际上,这些错误会影响决策——从抵押贷款申请到器官移植批准——从而造成严重危害。很多批评人工智能过快发展的人士,便指出了算法偏见的可能性。

  人工通用智能(AGI):一种程序的描述,它的能力与人类一样——甚至比人类更强。固然全面的通用智能仍未实现,但模型正在变得越来越复杂。

  自主代理:一种既有目标又有足够工具来实现目标的人工智能模型。例如,自动驾驶汽车是自主代理,它使用感官输进、GPS数据和驾驶算法来独立决定如何导航和到达目的地。斯坦福大学的研究职员已经证实,一组自主主体甚至可以发展文化和传统。

  提示链:使用先前与AI模型的交互来创建更正确的响应过程,特别是在提示驱动的语言建模中。例如,当你让ChatGPT给你的朋友发短信时,你希看它能记住你和她说话的语气、笑话和以前谈话的其他内收留。这些技术有助于整合上下文。

  大型语言模型(LLM):人工智能的一种应用,通常是天生式的。这些模型的特点是规模大:最大的版本GPT-3包含1750亿个称为参数的不同变量,这些参数是在570GB的数据上练习的。谷歌的PaLm模型更大,有5400亿个参数。随着硬件和软件的不中断发展,这一规模预计还会增加。它也可能编造学术引用,对你要求它分析的数据撒谎,或者编造练习数据中没有的事件事实。

  幻觉:幻觉是人工智能程序的意外和不正确的反应,可能是由于尚未完全了解的原因而产生的。当你问如何种植果树时,语言模型可能会忽然给出水果沙拉食谱。目前还不完全清楚为什么会发生这种情况,但可能是由于数据稀疏、信息缺口和错误分类造成的。

  突发性行为:AI可能证实它并不是专门为之构建的技能。一些例子包括表情符号的解释、讽刺和使用性别包收留的语言。

  一致性:努力确保人工智能系统与其人类操纵员具有相同的价值观和目标。为了使动机达成一致,一致性研究寻求练习和校准模型,通常使用函数来奖励或惩罚模型。

  多模态人工智能:一种可以理解和处理多种类型信息的人工智能形式,包括文本、图像、语音等。这很强大,由于它答应AI在多个维度上理解和表达自己,从而对任务有更广泛和更细致的理解。多模式人工智能的一个应用就是这个翻译器,它可以把日语漫画翻译成英语。

  提示工程:这是给AI一个指令的行为,这样它就有了实现你的目标所需的环境。提示工程最好与OpenAI的ChatGPT联系在一起,它描述了用户输进算法的任务(例如“给我五个流行的婴儿名字”)。

  练习:练习是使用数据细化人工智能的过程,使其更适合任务。人工智能可以根据你希看它学习的内收留输进数据来练习,就像把莎士比亚的十四行诗输进诗歌机器人一样。你可以在称为“epoch”的迭代中多次执行此操纵,直到你的模型的性能是一致和可靠的。

  神经网络:神经网络是一种近似人类思维结构的计算机系统,它们答应一个模型从抽象到具体的建立。

  狭义AI:思维单一的一些AI算法,它们被设计成只能做一件事。假如一个狭义的AI算法能下跳棋,那它就不能下国际象棋。

相关标签: 人工智能 ChatGPT 专业术语

发布评论