AI知识百科

全面的人工智能知识百科全书,涵盖基础概念、术语和流行AI产品教程

AI术语表

了解AI领域的核心术语是深入学习人工智能的基础。本术语表涵盖了从机器学习到深度学习,从神经网络到生成式AI的关键概念,帮助你建立完整的AI知识体系。

机器学习基础

机器学习
Machine Learning (ML)
机器学习是人工智能的一个分支,让计算机从数据中学习并改进性能,而无需明确编程。机器学习算法通过识别数据中的模式和关系,能够对新数据做出预测或决策。
应用示例:
  • 电子邮件垃圾邮件过滤
  • 信用卡欺诈检测
  • 推荐系统(如Netflix、Amazon)
监督学习
Supervised Learning
监督学习是机器学习的一种类型,使用标记数据(即带有正确答案的数据)进行训练。算法从输入数据和对应的输出标签中学习,然后对新的未标记数据进行预测。
常见算法:
  • 线性回归
  • 逻辑回归
  • 决策树
  • 支持向量机(SVM)
  • 随机森林
无监督学习
Unsupervised Learning
无监督学习是机器学习的一种类型,使用未标记数据进行训练。算法尝试从数据中发现模式、结构或关系,而不需要预先定义的输出标签。
常见算法:
  • 聚类算法(K-means、层次聚类)
  • 降维算法(PCA、t-SNE)
  • 关联规则学习(Apriori算法)
半监督学习
Semi-supervised Learning
半监督学习结合了监督学习和无监督学习的特点,使用少量标记数据和大量未标记数据进行训练。这种方法在标记数据获取成本较高时非常有用。
应用场景:
  • 图像识别(少量标记图像,大量未标记图像)
  • 自然语言处理
  • 医学图像分析
强化学习
Reinforcement Learning (RL)
强化学习是机器学习的一种类型,通过智能体(Agent)与环境的交互来学习。智能体根据环境状态采取行动,获得奖励或惩罚,然后调整策略以最大化累积奖励。
应用场景:
  • 游戏AI(如AlphaGo、Dota 2 AI)
  • 机器人控制
  • 自动驾驶汽车

深度学习

深度学习
Deep Learning (DL)
深度学习是机器学习的一个子集,使用多层神经网络(深度神经网络)模拟人类大脑的学习过程。深度学习算法能够自动从数据中学习多层次的特征表示,适用于处理复杂数据如图像、音频和文本。
应用领域:
  • 图像识别和分类
  • 语音识别和合成
  • 自然语言处理
神经网络
Neural Network
神经网络是一种模仿生物大脑结构的计算模型,由相互连接的节点(神经元)组成。每个神经元接收输入,进行计算,并产生输出,通过调整连接权重来学习。
主要类型:
  • 前馈神经网络(Feedforward Neural Network)
  • 卷积神经网络(Convolutional Neural Network)
  • 循环神经网络(Recurrent Neural Network)
  • Transformer网络
人工神经元
Artificial Neuron
人工神经元是神经网络的基本构建块,模拟生物神经元的功能。它接收多个输入,对每个输入乘以相应的权重,求和后通过激活函数产生输出。
常见激活函数:
  • sigmoid函数
  • ReLU(Rectified Linear Unit)
  • Tanh(双曲正切函数)
  • Softmax函数
深度学习框架
Deep Learning Framework
深度学习框架是用于构建、训练和部署深度学习模型的软件库。它们提供了预定义的层、优化器和工具,简化了深度学习模型的开发过程。
主流框架:
  • TensorFlow
  • PyTorch
  • Keras
  • Caffe
  • MXNet

大语言模型

大语言模型
Large Language Model (LLM)
大语言模型是一种能够理解和生成人类语言的大型人工智能模型。它们通过在海量文本数据上训练,学习语言的语法、语义和上下文关系,能够执行各种语言任务。
典型模型:
  • GPT系列(GPT-3.5、GPT-4)
  • Gemini系列
  • Claude系列
  • LLaMA系列
Transformer架构
Transformer Architecture
Transformer是一种基于自注意力机制的神经网络架构,由Google在2017年提出。它彻底改变了自然语言处理领域,成为大语言模型的核心架构。Transformer能够有效地处理长序列数据,并捕捉序列中的远程依赖关系。
关键组件:
  • 自注意力机制(Self-Attention)
  • 多头注意力(Multi-Head Attention)
  • 位置编码(Positional Encoding)
  • 前馈神经网络(Feed-Forward Networks)
自注意力机制
Self-Attention Mechanism
自注意力机制是Transformer架构的核心组成部分,允许模型在处理序列数据时,关注序列中其他相关位置的信息。通过计算每个位置与其他所有位置的注意力权重,模型能够捕捉序列中的长距离依赖关系。
应用场景:
  • 机器翻译
  • 文本摘要
  • 问答系统

生成式AI

生成式AI
Generative AI
生成式AI是人工智能的一个分支,能够创建新内容(文本、图像、音频、视频等),而不仅仅是分析或预测现有数据。生成式AI模型通过学习训练数据的模式和分布,能够生成与训练数据相似但全新的内容。
应用领域:
  • 文本生成(文章、故事、诗歌)
  • 图像生成(艺术作品、设计稿)
  • 音频生成(音乐、语音)
  • 视频生成和编辑
生成对抗网络
Generative Adversarial Network (GAN)
生成对抗网络是一种生成式AI模型,由两个神经网络组成:生成器(Generator)和判别器(Discriminator)。生成器负责创建新内容,判别器负责判断内容是真实的还是生成的。两个网络相互对抗、共同学习,最终生成器能够创建出与真实内容难以区分的新内容。
应用示例:
  • 生成逼真的人脸图像
  • 图像风格转换
  • 超分辨率图像生成
扩散模型
Diffusion Model
扩散模型是一种生成式AI模型,通过逐步向数据中添加噪声,然后学习如何逐步去除噪声来生成新内容。扩散模型在图像生成领域取得了显著成功,能够生成高质量、多样化的图像。
典型模型:
  • DALL-E 3
  • Midjourney
  • Stable Diffusion

自然语言处理

自然语言处理
Natural Language Processing (NLP)
自然语言处理是人工智能的一个分支,让计算机理解、解释和生成人类语言。NLP结合了计算机科学、语言学和人工智能技术,旨在实现人与计算机之间的自然语言交互。
核心任务:
  • 文本分类和情感分析
  • 命名实体识别
  • 机器翻译
  • 问答系统
  • 文本摘要
语言模型
Language Model (LM)
语言模型是一种预测文本序列概率分布的模型,能够计算一个句子或文本片段出现的概率。语言模型是许多NLP任务的基础,如机器翻译、文本生成和语音识别。
发展历程:
  • n-gram语言模型
  • 循环神经网络语言模型(RNN-LM)
  • Transformer语言模型
  • 大语言模型(LLM)
词嵌入
Word Embedding
词嵌入是一种将词语转换为数值向量的技术,使计算机能够理解词语之间的语义关系。词嵌入模型通过学习大量文本数据,将语义相似的词语映射到向量空间中相近的位置。
主流模型:
  • Word2Vec
  • GloVe
  • fastText
  • BERT嵌入

计算机视觉

计算机视觉
Computer Vision (CV)
计算机视觉是人工智能的一个分支,让计算机理解和解释图像与视频。计算机视觉系统能够识别图像中的物体、场景和活动,并提取有用的信息。
应用领域:
  • 图像分类和识别
  • 目标检测和跟踪
  • 人脸识别
  • 自动驾驶汽车
  • 医学影像分析
卷积神经网络
Convolutional Neural Network (CNN)
卷积神经网络是一种专门用于处理网格数据(如图像)的深度学习模型。CNN通过卷积层、池化层和全连接层的组合,能够自动学习图像中的特征,从低级特征(如边缘)到高级特征(如物体)。
经典模型:
  • LeNet-5
  • AlexNet
  • VGGNet
  • ResNet
  • GoogLeNet
目标检测
Object Detection
目标检测是计算机视觉的一项任务,旨在识别图像或视频中特定类别的物体,并确定它们的位置(通常用边界框表示)。目标检测结合了图像分类和定位技术。
主流算法:
  • R-CNN系列(R-CNN, Fast R-CNN, Faster R-CNN)
  • YOLO(You Only Look Once)
  • SSD(Single Shot MultiBox Detector)

强化学习

强化学习
Reinforcement Learning (RL)
强化学习是机器学习的一种类型,通过智能体(Agent)与环境的交互来学习。智能体根据环境状态采取行动,获得奖励或惩罚,然后调整策略以最大化累积奖励。强化学习强调如何基于环境反馈做出决策,以实现特定目标。
核心概念:
  • 智能体(Agent)
  • 环境(Environment)
  • 状态(State)
  • 动作(Action)
  • 奖励(Reward)
  • 策略(Policy)
Q-学习
Q-Learning
Q-学习是一种基于值函数的强化学习算法,用于学习在给定状态下采取特定动作的最优价值(Q值)。Q-学习通过迭代更新Q表(记录状态-动作对的价值),最终找到最优策略。
应用场景:
  • 游戏AI
  • 机器人控制
  • 资源分配
深度强化学习
Deep Reinforcement Learning (DRL)
深度强化学习是强化学习与深度学习的结合,使用深度神经网络来近似值函数或策略函数。深度强化学习能够处理高维状态空间(如图像),在复杂任务中取得了突破性成果。
著名成果:
  • AlphaGo(击败围棋世界冠军)
  • AlphaZero(自学多种棋类游戏)
  • OpenAI Five(Dota 2 AI)

AI工具和框架

TensorFlow
TensorFlow
TensorFlow是Google开发的开源机器学习框架,广泛用于构建和训练各种机器学习和深度学习模型。TensorFlow支持多种平台,包括桌面、移动设备和云端,提供了丰富的工具和库。
主要特点:
  • 灵活的计算图模型
  • 支持分布式训练
  • 丰富的预训练模型库
  • 强大的可视化工具(TensorBoard)
PyTorch
PyTorch
PyTorch是Facebook开发的开源机器学习框架,以其动态计算图和易用性而闻名。PyTorch在研究社区中非常流行,同时也被广泛应用于工业界,支持从研究原型到生产部署的全流程。
主要特点:
  • 动态计算图(便于调试和研究)
  • 直观的Python API
  • 强大的自动微分系统
  • 活跃的社区和丰富的生态系统
Hugging Face
Hugging Face
Hugging Face是一个专注于自然语言处理的开源社区和平台,提供了大量预训练模型、工具和库。Hugging Face的Transformers库是目前最流行的大语言模型实现库,支持多种模型架构和任务。
主要资源:
  • Transformers库(大语言模型实现)
  • Model Hub(预训练模型仓库)
  • Datasets库(数据集处理)
  • Tokenizers库(高效分词)