这份清单覆盖大模型、机器学习、深度学习、技术原理、行业应用全场景,从入门到进阶,解释通俗、精准、无废话,适合学习、工作、汇报直接使用。
一、大模型 & 大语言模型核心术语
1. LLM(Large Language Model)大语言模型 基于深度学习、拥有海量参数与大规模语料训练的语言模型,能理解、生成、翻译、推理人类语言,是当前AI主流形态,如GPT、文心一言、通义千问、Llama均属于LLM。
2. AGI(Artificial General Intelligence)通用人工智能 具备人类级别的全场景智能,可自主学习、跨领域解决任意问题,而非仅擅长单一任务,是AI的终极目标,目前尚未实现。 3. 基座模型(Base Model) 未经微调、在海量无标注数据上预训练完成的原始大模型,具备通用能力,是所有垂直模型的“底座”。 4. SFT(Supervised Fine-Tuning)监督微调 用标注好的优质对话/任务数据,对基座模型进行二次训练,让模型更符合人类指令、输出更规范。 5. RLHF(Reinforcement Learning from Human Feedback)基于人类反馈的强化学习 通过人类对模型回答打分、排序,让模型学习更安全、更有用、更符合人类偏好的输出方式,是主流大模型的关键优化技术。 6. RAG(Retrieval-Augmented Generation)检索增强生成 让大模型先检索外部知识库/文档,再基于检索结果生成回答,解决大模型“幻觉”、知识过时问题,是企业AI落地标配。 7. AI 幻觉(Hallucination) 大模型编造不存在的事实、数据、引用,看似合理但完全错误,是当前LLM最主要缺陷之一。 8. Prompt 提示词 用户向AI输入的指令、问题、描述,决定AI输出质量,优质提示词可大幅提升准确性、逻辑性。 9. Context Window 上下文窗口 模型一次性能接收+记住的文本长度,窗口越大,模型处理长文档、长对话的能力越强。 10. Token 令牌 AI处理文本的最小单位,中文1个Token≈0.6~0.7个汉字,英文1个Token≈4~5个字母,模型计费、长度限制均以Token计算。 11. MoE(Mixture of Experts)混合专家模型 将大模型拆分为多个“小专家模块”,输入问题时只激活对应专家,大幅降低算力消耗、提升推理速度,GPT-4、Claude 3均采用此架构。 12. 多模态大模型(Multimodal LLM) 能同时理解/生成文字、图片、音频、视频、3D的模型,打破单一文本限制,如GPT-4V、文心一格、Sora。 二、机器学习基础术语
13. AI(Artificial Intelligence)人工智能 让机器模拟人类智能(感知、推理、学习、创造、决策)的技术总称,是最大的概念范畴。 14. ML(Machine Learning)机器学习 AI的核心分支,让机器从数据中自动学习规律,无需人工编写固定规则,是AI的实现方式。 15. DL(Deep Learning)深度学习 机器学习的子集,使用多层神经网络模拟人脑结构,处理复杂任务(图像、语音、语言),大模型均属于深度学习。 16. 训练(Training) 模型学习数据规律的过程,消耗大量算力与时间,得到可使用的模型权重。 17. 推理(Inference) 模型训练完成后,接收输入并输出结果的过程(如提问→回答),速度快、成本低。 18. 数据集(Dataset) 训练模型用的数据集合,分为训练集、验证集、测试集。 19. 监督学习(Supervised Learning) 用带标签的数据训练(如输入图片+标注“猫/狗”),模型学习映射关系,用于分类、预测。 20. 无监督学习(Unsupervised Learning) 用无标签数据训练,模型自动发现数据规律(聚类、降维)。 21. 过拟合(Overfitting) 模型过度记住训练数据,在新数据上表现极差,泛化能力差。 22. 泛化能力(Generalization) 模型处理未见过的新数据的能力,是模型好坏的核心指标。 三、深度学习 & 神经网络术语
23. 神经网络(Neural Network) 模仿人脑神经元连接的计算结构,是深度学习的基础单元。 24. 参数(Parameters) 模型学习到的权重与偏差,参数越多,模型容量越强、能力越强(大模型参数通常达百亿/千亿级别)。 25. Transformer 当前所有大模型的基础架构,依靠“注意力机制”实现高效文本理解,2017年提出,彻底改变NLP与AI领域。 26. 注意力机制(Attention) 让模型重点关注输入中关键信息(如读句子时抓住核心词),提升理解效率。 27. CNN(Convolutional Neural Network)卷积神经网络 专门用于图像识别、目标检测的神经网络,如人脸识别、图片分类。 28. RNN/LSTM 循环神经网络 早期用于处理序列数据(语音、文本)的模型,现已基本被Transformer替代。 29. 预训练(Pre-training) 在大规模通用数据上先完成基础学习,得到基座模型,是大模型的第一步。 30. 微调(Fine-tuning) 在预训练模型基础上,用小批量垂直数据优化,适配特定场景(如医疗、法律、客服)。 四、AI技术应用 & 工程术语
31. NLP(Natural Language Processing)自然语言处理 让机器理解、处理、生成人类语言的技术,LLM属于NLP顶级成果。 32. ASR(Automatic Speech Recognition)自动语音识别 将语音转文字,如讯飞听见、微信语音转文字。 33. TTS(Text To Speech)文字转语音 将文字生成人声,如AI配音、导航语音、数字人播报。 34. OCR(Optical Character Recognition)光学字符识别 从图片/扫描件中提取文字,如身份证识别、文档扫描。 35. AIGC(AI Generated Content)AI生成内容 用AI自动生成文本、图片、音频、视频、代码,是当前AI最热门应用方向。 36. 文生图(Text-to-Image) 输入文字描述,AI生成对应图片,如Midjourney、Stable Diffusion、文心一格。 37. 文生视频(Text-to-Video) 输入文字生成视频,如Sora、Pika、Runway。 38. 数字人(Virtual Human) 用AI生成的虚拟人物形象,可直播、播报、交互,结合TTS+唇形同步+动作驱动。 39. API(Application Programming Interface)应用程序接口 AI模型的调用入口,开发者通过API将AI能力接入软件、APP、系统。 40. 开源模型(Open Source Model) 公开模型权重与代码,可本地部署、二次开发,如Llama、Qwen、Mistral。 41. 闭源模型(Closed Source Model) 不公开核心代码与权重,仅提供API服务,如GPT-4、文心一言、Claude。 42. 本地部署(Local Deployment) 将模型运行在自己的服务器/电脑上,不上云,数据更安全、隐私性更强。 五、AI伦理与行业概念
43. 对齐(Alignment) 让AI的行为、目标与人类价值观、利益保持一致,避免有害输出。 44. 可解释性AI(XAI) 让AI的决策可被人类理解,而非“黑箱”。 45. 算力(Computing Power) AI训练与推理的计算能力,核心依赖GPU、NPU、TPU等芯片。 46. 大模型微调(LoRA) 轻量级微调技术,仅训练少量参数,速度快、成本低,是企业垂直定制模型主流方案。 47. 全量微调(Full Fine-tuning) 微调模型全部参数,效果更好,但算力成本极高。 48. AI Agent(智能体) 能自主理解目标、规划步骤、执行任务、自主纠错的AI,无需人类逐轮干预,是下一代AI方向。 49. 知识图谱(Knowledge Graph) 用节点+关系存储结构化知识,辅助AI理解逻辑与事实,减少幻觉。 50. 零样本学习(Zero-shot Learning) 模型无需专门训练,直接完成陌生任务(如没学过法语,直接翻译法语),大模型核心能力之一。 |