-
人工智能

- 人工智能:使机器模拟人类智能行为(如学习、推理、感知)的科学与工程。
- 机器学习:AI的子集,使计算机无需显式编程就能从数据中学习并改进。
- 深度学习:ML的子集,基于深层人工神经网络,擅长处理图像、语音等非结构化数据。
- 神经网络:受大脑神经元结构启发的计算模型,由大量互联的“神经元”(节点)组成。
- 人工神经网络:ANN,指代由软件或硬件模拟的神经网络。
- 前馈神经网络:最简单的神经网络,信息单向从输入层流向输出层。
- 反向传播:训练神经网络的核心算法,通过计算误差梯度来调整网络权重。
-
学习范式
- 监督学习:使用带标签的数据集进行训练,学习输入到输出的映射关系(如图像分类)。
- 无监督学习:使用无标签的数据,发现数据中的内在模式或结构(如聚类、降维)。
- 半监督学习:结合少量带标签数据和大量无标签数据进行训练。
- 强化学习:智能体通过与环境交互,根据获得的奖励或惩罚来学习最优策略(如AlphaGo)。
- 自监督学习:一种无监督学习,从数据本身自动生成标签进行训练(如掩码语言建模)。
- 迁移学习:将在一个任务上训练好的模型知识,迁移到另一个相关任务上,以提升效率。
第二部分:关键模型与架构
-
经典机器学习模型
- 线性/逻辑回归:基础的回归与分类模型。
- 决策树:基于树状结构做决策的模型。
- 随机森林:集成学习法,通过构建多个决策树并综合其结果来提高性能。
- 支持向量机:SVM,在特征空间中寻找最优分离超平面进行分类。
- K-均值聚类:经典的无监督聚类算法。
-
神经网络核心架构
- 卷积神经网络:CNN,专为处理网格状数据(如图像)设计,利用卷积核提取局部特征。
- 循环神经网络:RNN,用于处理序列数据(如文本、时间序列),具有记忆功能。
- 长短期记忆网络:LSTM,一种特殊的RNN,通过精巧的门控结构解决长序列依赖问题。
- 门控循环单元:GRU,LSTM的简化变体,效果相近但结构更简单。
- Transformer:革命性的架构,完全基于自注意力机制,摒弃了循环和卷积,成为大语言模型的基石。
- 自注意力机制:让模型能够关注输入序列中任何位置的信息,并评估其重要性。
- 编码器-解码器架构:常用于序列到序列的任务(如翻译),编码器压缩输入,解码器生成输出。
第三部分:大语言模型与生成式AI
-
核心概念
- 大语言模型:LLM,基于海量文本数据训练的、参数规模巨大(通常百亿以上)的深度学习模型,能理解和生成自然语言。
- 生成式人工智能:Gen-AI,能够生成全新内容(文本、图像、代码、音乐等)的AI模型统称。
- 基础模型:在大规模广泛数据上训练的、能够适应多种下游任务的大模型。
- 提示工程:Prompt Engineering,设计和优化输入提示词,以引导模型生成更准确、理想的输出。
- 思维链:CoT,一种提示技术,要求模型在给出最终答案前,先展示出推理的中间步骤。
- 幻觉:AI生成的内容看似合理,但事实上是错误或虚构的,这是LLM的显著缺陷。
-
相关技术
- 检索增强生成:RAG,结合信息检索和LLM的技术,先从外部知识库检索相关文档,再让LLM基于检索结果生成答案,提高准确性和时效性。
- 微调:Fine-Tuning,在预训练好的基础模型上,使用特定领域的小规模数据集进行额外训练,使其适应特定任务。
- 指令微调:Instruction Tuning,使用(指令,输出)配对的数据进行微调,让模型更好地遵循人类指令。
- 基于人类反馈的强化学习:RLHF,通过人类对模型输出的偏好反馈来训练奖励模型,并用RL进一步优化模型,使其输出更符合人类价值观。
- 上下文长度:模型单次处理(输入+输出)的文本最大长度。
- 令牌:Token,文本被分割成的更小单元(可以是词、子词或字符),是模型处理的基本单位。
第四部分:计算机视觉
- 图像分类:识别图像中的主要对象类别。
- 目标检测:不仅识别物体,还要用边界框定位其在图像中的位置。
- 图像分割:
- 语义分割:为图像中每个像素分类。
- 实例分割:区分同一类别的不同个体实例。
- 生成对抗网络:GAN,包含一个生成器和一个判别器,通过相互对抗来生成逼真数据。
- 扩散模型:当前主流的图像生成模型,通过逐步去噪过程从随机噪声中生成图像。
- 姿态估计:检测图像或视频中人物的关键身体关节位置。
第五部分:其他重要技术
- 嵌入:Embedding,将离散对象(如词、图)映射到低维连续向量空间,捕捉其语义信息。
- 向量数据库:专门用于存储、索引和检索高维向量(嵌入)的数据库,是RAG的关键组件。
- 多模态AI:能够同时处理和整合多种类型信息(如文本、图像、音频)的模型。
- 智能体:Agent,能够感知环境、自主决策并执行行动以实现目标的AI系统。
- 具身智能:Embodied AI,研究拥有物理身体(如机器人)的智能体如何通过与真实世界互动来学习。
- 联邦学习:一种分布式机器学习技术,允许多个客户端在本地训练模型,只共享模型更新而非原始数据,保护隐私。
- 可解释AI:XAI,旨在提高AI模型决策过程的透明度和可理解性。
- AI对齐:确保AI系统的目标、行为与人类价值观和意图保持一致的研究领域。
第六部分:应用与产品形态
- 聊天机器人:基于自然语言处理的对话程序。
- Copilot:特指以“副驾驶”形式嵌入到各类软件中,辅助用户完成工作的AI助手。
- AI绘画/文生图:利用扩散模型等,根据文字描述生成图像的工具。
- 代码补全:基于AI的编程助手,如GitHub Copilot。
- 语音助手:如Siri、Alexa,集成了语音识别、自然语言理解和语音合成技术。
- 推荐系统:利用协同过滤、深度学习等技术,预测用户偏好并推荐内容。
如何使用这份列表:
- 初学者:建议从第一部分和第二部分开始,建立基础认知。
- 关注热点:当前重点可以放在第三部分(LLM与Gen-AI) 和 第五部分的前沿技术。
- 按领域查找:如果您从事CV,重点看第四部分;如果是NLP,重点看第三部分。
AI领域日新月异,此列表涵盖了截至2024年的主流与关键术语,可作为一份实用的快速参考指南。
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。