人工智能专业术语大全 | AI知识库

🤖 人工智能专业术语大全

全面收录AI领域核心概念与技术术语

🎭 AI教育专家 | 术语整理专员

📌 问题理解

您需要系统性地了解人工智能领域的专业术语。我将基于权威资料,为您整理从基础概念到前沿技术的完整术语体系,帮助您构建清晰的AI知识框架。

📚 核心基础概念

人工智能 (Artificial Intelligence, AI)

一门研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的新技术科学。

机器学习 (Machine Learning, ML)

AI的核心分支,让计算机系统从数据中"学习"并改进,而无需进行明确编程的科学。

深度学习 (Deep Learning)

机器学习的一个分支,基于具有多层结构的人工神经网络,能够自动学习数据中的复杂模式。

算法 (Algorithm)

为解决特定问题而设计的一系列清晰、有限的指令或步骤,是模型学习和预测的基础。

神经网络 (Neural Network)

模仿生物神经网络结构和功能的数学模型,是深度学习的基础。

模型 (Model)

算法在训练数据上学习后产生的输出,能够对新的、未见过的数据进行预测或决策。

数据 (Data)

指用于训练、测试和验证AI模型的信息集合,可以是数值、文本、图像、音频等多种形式。

特征 (Feature)

数据集中用于描述样本的属性或变量,是模型学习的输入。

数据集 (Dataset)

用于机器学习任务的、结构化的数据集合,通常划分为训练集、验证集和测试集。

超参数 (Hyperparameter)

在模型训练开始前设置的参数,不通过训练学习,而是通过经验或试错调整,如学习率、批大小等。

损失函数 (Loss Function) / 成本函数 (Cost Function)

衡量模型预测值与真实值之间差异的函数,目标是在训练过程中最小化该值。

梯度下降 (Gradient Descent)

一种优化算法,通过迭代调整模型参数,沿着损失函数梯度下降的方向,逐步找到最优解。

激活函数 (Activation Function)

神经网络中引入非线性因素的函数,使网络能够学习和表示更复杂的模式,如ReLU、Sigmoid、Softmax等。

🔬 机器学习范式

监督学习 (Supervised Learning)

使用带有标签(已知正确输出)的数据进行训练,让模型学习输入到输出的映射关系。

无监督学习 (Unsupervised Learning)

使用没有标签的数据进行训练,让模型自行发现数据中的内在结构或模式,如聚类、降维。

强化学习 (Reinforcement Learning, RL)

通过与环境交互、根据获得的奖励或惩罚来学习最优行为策略的学习范式。

半监督学习 (Semi-supervised Learning)

结合少量有标签数据和大量无标签数据进行训练,旨在利用无标签数据提升模型性能。

迁移学习 (Transfer Learning)

将在源任务上训练好的模型(通常是预训练模型)应用到新的、相关的目标任务上,以加快训练或克服数据不足。

自监督学习 (Self-supervised Learning)

从数据本身自动生成监督信号(例如通过预测数据的一部分来监督另一部分)的无监督学习特殊形式。

集成学习 (Ensemble Learning)

结合多个学习器(模型)的预测结果,以获得比单个学习器更强大、更鲁棒的性能,如Bagging、Boosting。

元学习 (Meta-Learning) / 学会学习 (Learning to Learn)

旨在让AI系统学会如何学习,使其能够快速适应新任务或新环境,通常只需少量示例。

在线学习 (Online Learning)

模型在数据流中逐个接收样本并进行实时学习和更新,适用于数据持续流入的场景。

主动学习 (Active Learning)

模型主动选择最有信息量的未标注数据请求人工标注,以最小化标注成本达到最佳性能。

⚙️ 核心技术模型与算法

Transformer架构

基于自注意力机制的神经网络架构,彻底改变了自然语言处理领域,也是大模型的基础。

卷积神经网络 (Convolutional Neural Network, CNN)

专为处理网格状数据(如图像、视频)而设计的神经网络,通过卷积层提取局部特征。

循环神经网络 (Recurrent Neural Network, RNN)

专为处理序列数据(如文本、语音、时间序列)而设计的神经网络,具有处理时序信息的能力。

生成对抗网络 (Generative Adversarial Network, GAN)

由生成器和判别器组成的模型框架,通过相互对抗学习生成以假乱真的新数据。

扩散模型 (Diffusion Model)

通过模拟数据逐渐添加噪声再逐步去噪的过程,生成高质量图像、音频等数据的生成模型。

大语言模型 (Large Language Model, LLM)

在海量文本数据上训练的、包含数千亿甚至万亿参数的Transformer模型,具备强大的语言理解和生成能力。

支持向量机 (Support Vector Machine, SVM)

一种二分类模型,通过在高维空间中找到一个最优超平面将不同类别的数据点分开。

决策树 (Decision Tree)

一种监督学习算法,通过树状结构进行决策,每个内部节点代表一个特征测试,每个分支代表一个测试输出,每个叶节点代表一个类别标签或数值。

随机森林 (Random Forest)

一种集成学习方法,通过构建多个决策树并取其平均或投票结果进行预测,能有效减少过拟合。

K-近邻 (K-Nearest Neighbors, KNN)

一种非参数的监督学习算法,根据样本与K个最近邻的多数类别进行分类或平均值进行回归。

逻辑回归 (Logistic Regression)

一种广义线性模型,主要用于解决二分类问题,通过Sigmoid函数将线性预测值映射到概率。

线性回归 (Linear Regression)

一种回归模型,通过找到最佳拟合直线来预测一个连续的输出变量。

自编码器 (Autoencoder)

一种无监督神经网络,旨在学习输入数据的有效编码(表示),通过将输入数据压缩成低维表示再重构。

长短期记忆网络 (Long Short-Term Memory, LSTM)

一种特殊的RNN,通过引入“门”结构(输入门、遗忘门、输出门)有效解决了传统RNN的梯度消失和爆炸问题,擅长处理长序列依赖。

循环门单元 (Gated Recurrent Unit, GRU)

LSTM的简化版,同样通过门机制处理序列依赖,但参数更少,计算效率更高。

贝叶斯网络 (Bayesian Network)

一种概率图模型,用有向无环图表示变量之间的条件依赖关系,并结合条件概率表进行推理。

注意力机制 (Attention Mechanism)

使模型在处理信息时能够关注输入序列中最重要的部分,并为其分配不同的权重。

自注意力机制 (Self-Attention Mechanism)

一种特殊的注意力机制,允许模型在处理一个序列时,让序列中的每个元素都能关注到序列中的其他所有元素,从而捕捉长距离依赖。

💬 自然语言处理 (NLP)

自然语言处理 (Natural Language Processing, NLP)

研究如何让计算机理解、解释和生成人类语言,实现人机自然交流的交叉学科。

词向量 (Word Embedding)

将词语表示为实数向量的技术,能捕捉词语间的语义关系,例如Word2Vec、GloVe。

命名实体识别 (Named Entity Recognition, NER)

识别文本中具有特定意义的实体,如人名、地名、组织机构名、日期、时间等。

提示工程 (Prompt Engineering)

设计和优化输入给LLM的提示词(Prompt),以引导模型产生更符合期望输出的技术和艺术。

检索增强生成 (Retrieval-Augmented Generation, RAG)

将信息检索与生成式AI相结合的技术,通过从外部知识库检索相关信息来增强LLM的回答,提高准确性和时效性。

上下文学习 (In-context Learning)

大语言模型通过输入提示中提供少量示例(few-shot examples)就能学会执行新任务的能力,无需权重更新。

分词 (Tokenization)

将文本序列分割成更小的、有意义的单元(词语、子词或字符)的过程。

词性标注 (Part-of-Speech Tagging, POS)

为文本中的每个词语标注其对应的词性(如名词、动词、形容词等)。

句法分析 (Syntactic Parsing)

分析句子结构,识别词语之间的句法关系,如依存句法分析和短语结构分析。

情感分析 (Sentiment Analysis)

识别、提取和量化文本中所表达的情绪或主观意见(积极、消极、中性)。

机器翻译 (Machine Translation, MT)

利用计算机将一种自然语言的文本或语音自动翻译成另一种自然语言。

文本摘要 (Text Summarization)

将一篇或多篇文档的核心信息提炼成简短摘要的技术,可以是抽取式或生成式。

问答系统 (Question Answering System, QAS)

接收自然语言提问并提供精准答案的AI系统。

预训练模型 (Pre-trained Model)

在一个大型数据集上(通常是自监督方式)训练过的模型,具有强大的泛化能力,可以针对下游任务进行微调。

微调 (Fine-tuning)

在预训练模型的基础上,使用特定任务的小型数据集进行进一步训练,以适应新任务。

👁️ 计算机视觉 (CV)

计算机视觉 (Computer Vision, CV)

使计算机能够从图像或视频中获取信息、理解内容并做出决策的科学。

目标检测 (Object Detection)

在图像中定位并识别出多个特定物体,并用边界框标注其位置和类别。

图像分割 (Image Segmentation)

将图像划分为多个不同的、有意义的区域或像素组,常分为语义分割和实例分割。

人脸识别 (Face Recognition)

识别和验证图像或视频中人脸身份的技术。

姿态估计 (Pose Estimation)

在图像或视频中检测并定位人体关键点(如关节),以推断人体的姿态。

图像分类 (Image Classification)

将图像归类到预定义的类别之一,是计算机视觉的基础任务。

特征提取 (Feature Extraction)

从原始数据中提取出对模型有用的、具有代表性的信息(特征)。

边缘检测 (Edge Detection)

识别图像中亮度或颜色发生显著变化的像素点,用于勾勒物体轮廓。

目标跟踪 (Object Tracking)

在视频序列中持续识别和定位特定目标(如人、车辆)。

语义分割 (Semantic Segmentation)

对图像中的每个像素点进行分类,将其分配到预定义的语义类别中(例如,所有车辆像素为一类)。

实例分割 (Instance Segmentation)

在语义分割的基础上,区分同一类别中不同的实例(例如,区分图像中的每一辆车)。

光学字符识别 (Optical Character Recognition, OCR)

将图像中的手写或印刷文本转换成机器可编辑文本的技术。

📊 训练、评估与优化

过拟合 (Overfitting)

模型在训练数据上表现极好,但在新的、未见过的数据上表现很差的现象,学习了不必要的细节或噪声。

欠拟合 (Underfitting)

模型在训练数据和新数据上都表现不佳的现象,通常是因为模型复杂度不足或特征不足,无法捕捉数据中的基本模式。

正则化 (Regularization)

为防止模型过拟合而采取的一系列技术,如L1/L2正则化、Dropout等,旨在限制模型复杂度。

优化器 (Optimizer)

用于调整神经网络权重以最小化损失函数的算法,如SGD、Adam、RMSprop等。

学习率 (Learning Rate)

在优化过程中,每次参数更新的步长大小,对模型的收敛速度和性能有重要影响。

批处理 (Batch Processing) / 批大小 (Batch Size)

在模型训练中,每次迭代(一个步长)用于计算梯度和更新模型参数的样本数量。

模型评估 (Model Evaluation)

衡量训练好的模型在未见过数据上的性能和泛化能力的过程。

准确率 (Accuracy)

分类任务中最常见的评估指标,表示正确预测样本数占总样本数的比例。

精确率 (Precision)

在所有被模型预测为正类的样本中,真正是正类的比例。

召回率 (Recall) / 灵敏度 (Sensitivity)

在所有真正的正类样本中,被模型正确预测为正类的比例。

F1分数 (F1-Score)

精确率和召回率的调和平均值,综合衡量模型的性能。

混淆矩阵 (Confusion Matrix)

一个表格,用于可视化分类模型在测试集上的性能,显示了真阳性、假阳性、真阴性、假阴性的数量。

ROC曲线 (Receiver Operating Characteristic Curve)

以真阳性率(召回率)为纵轴,假阳性率(1-特异度)为横轴绘制的曲线,用于评估二分类模型的性能。

交叉验证 (Cross-validation)

一种评估模型性能的技术,将数据集划分为多个子集,轮流用作训练集和验证集,以减少模型评估的偏差。

特征工程 (Feature Engineering)

将原始数据转换为模型更容易理解和利用的特征的过程,对模型性能至关重要。

数据增强 (Data Augmentation)

通过对现有数据进行变换(如图像旋转、裁剪、翻转;文本同义词替换)来增加训练数据的多样性和数量,以提高模型的泛化能力。

🛡️ AI伦理、安全与治理

幻觉 (Hallucination)

生成式AI模型(特别是LLM)捏造事实、生成看似合理但与事实不符或不存在信息的现象。

算法偏见 (Algorithmic Bias)

AI模型因训练数据中存在的偏差或算法设计缺陷,对特定人群产生不公平或歧视性结果的现象。

AI对齐 (AI Alignment)

确保AI系统的目标和行为与人类的价值观、意图和利益保持一致,特别是对于超智能AI。

可解释性AI (Explainable AI, XAI)

使AI模型的决策过程对人类透明和可理解的技术和方法,帮助用户信任和管理AI。

可信赖AI (Trustworthy AI)

AI系统应具备可靠性、安全性、鲁棒性、可解释性、公平性和隐私保护等特性,以赢得用户信任。

AI治理 (AI Governance)

制定和实施管理AI技术开发、部署和使用的政策、法规、标准和最佳实践,以确保其负责任和安全发展。

AI安全 (AI Safety)

研究如何防止AI系统在设计、部署和使用过程中可能导致的意外或恶意伤害,包括技术安全和伦理安全。

数据隐私 (Data Privacy)

在AI系统中保护个人数据不被未经授权的访问、使用、泄露和处理的原则和技术。

隐私保护机器学习 (Privacy-Preserving ML)

一系列允许在保护数据隐私的前提下进行机器学习的技术,如联邦学习、差分隐私、同态加密。

差分隐私 (Differential Privacy)

一种严格的隐私保护技术,通过向数据集添加噪声,使得在查询结果中无法推断出任何单个个体的信息,同时仍能进行有效分析。

对抗攻击 (Adversarial Attack)

通过对AI模型输入数据进行微小、人眼难以察觉的扰动,使得模型产生错误输出的行为。

公平性 (Fairness)

确保AI系统在决策过程中对不同群体或个体一视同仁,避免歧视,实现公正的结果。

🚀 前沿应用与部署

生成式AI (Generative AI)

能够创造出全新内容(文本、图像、音乐、代码、视频等)的AI,而不是简单地识别或分类现有内容。

自主智能体 (Autonomous Agent)

能够感知环境、制定决策并自主执行行动以完成特定目标的AI系统,具备一定程度的自主性。

多模态AI (Multimodal AI)

能够同时处理并理解多种类型数据(如文本、图像、音频、视频)的AI模型,实现跨模态的感知和生成。

通用人工智能 (Artificial General Intelligence, AGI)

一种理论上的AI,能比人类更有效地执行大多数具有经济价值任务的先进AI技术,具备像人类一样的泛化学习和推理能力。

联邦学习 (Federated Learning)

一种隐私保护的分布式机器学习范式,多个客户端在不共享原始数据的情况下协同训练全局模型。

数字孪生 (Digital Twin)

为物理实体(如设备、系统、城市)创建的虚拟数字模型,通过AI进行实时模拟、监控和优化。

MLOps (机器学习运维)

将DevOps原则应用于机器学习系统全生命周期的实践,包括数据准备、模型训练、部署、监控和管理。

边缘AI (Edge AI)

将AI计算能力部署到靠近数据源的边缘设备上(如物联网设备、智能手机),减少数据传输延迟和带宽需求。

具身智能 (Embodied AI)

研究让AI系统能够拥有物理形态(如机器人),并通过与真实世界的物理交互来学习和执行任务。

AI即服务 (AI as a Service, AIaaS)

通过云平台提供AI功能和模型作为可消费的服务,使开发者和企业无需自建复杂的AI基础设施。

量化 (Quantization)

将模型权重和激活值的浮点数表示转换为低精度整数表示的技术,以减小模型大小和提高推理速度。

模型压缩 (Model Compression)

旨在减小AI模型的大小(参数量)和计算量,同时保持尽可能高的性能,便于部署到资源受限的环境,如剪枝、量化、知识蒸馏。

💡 学习建议

要深入理解这些术语,建议:

人工智能领域发展迅速,新的术语和技术不断涌现,保持持续学习很重要。

⚠️ 免责声明:本术语表仅供教育参考,部分概念存在多种解释版本。在实际应用和学术研究中,请以权威文献和最新标准为准。

互动区域

登录后可以点赞此内容

参与互动

登录后可以点赞和评论此内容,与作者互动交流