首  页 协会概况 协会动态 企业风采 CIO学院 专题活动 认证与培训 CIO风采 管理资讯 下载专区 联系我们
  首页 > 最新动态 > 协会动态

人工智能(AI)核心常用术语全解

时间:2026-03-25 18:38来源: 作者:hfcio 点击:

这份清单覆盖大模型、机器学习、深度学习、技术原理、行业应用全场景,从入门到进阶,解释通俗、精准、无废话,适合学习、工作、汇报直接使用。

一、大模型 & 大语言模型核心术语

1. LLM(Large Language Model)大语言模型

基于深度学习、拥有海量参数与大规模语料训练的语言模型,能理解、生成、翻译、推理人类语言,是当前AI主流形态,如GPT、文心一言、通义千问、Llama均属于LLM。

2. AGI(Artificial General Intelligence)通用人工智能

具备人类级别的全场景智能,可自主学习、跨领域解决任意问题,而非仅擅长单一任务,是AI的终极目标,目前尚未实现。

3. 基座模型(Base Model)

未经微调、在海量无标注数据上预训练完成的原始大模型,具备通用能力,是所有垂直模型的“底座”。

4. SFT(Supervised Fine-Tuning)监督微调

用标注好的优质对话/任务数据,对基座模型进行二次训练,让模型更符合人类指令、输出更规范。

5. RLHF(Reinforcement Learning from Human Feedback)基于人类反馈的强化学习

通过人类对模型回答打分、排序,让模型学习更安全、更有用、更符合人类偏好的输出方式,是主流大模型的关键优化技术。

6. RAG(Retrieval-Augmented Generation)检索增强生成

让大模型先检索外部知识库/文档,再基于检索结果生成回答,解决大模型“幻觉”、知识过时问题,是企业AI落地标配。

7. AI 幻觉(Hallucination)

大模型编造不存在的事实、数据、引用,看似合理但完全错误,是当前LLM最主要缺陷之一。

8. Prompt 提示词

用户向AI输入的指令、问题、描述,决定AI输出质量,优质提示词可大幅提升准确性、逻辑性。

9. Context Window 上下文窗口

模型一次性能接收+记住的文本长度,窗口越大,模型处理长文档、长对话的能力越强。

10. Token 令牌

AI处理文本的最小单位,中文1个Token≈0.6~0.7个汉字,英文1个Token≈4~5个字母,模型计费、长度限制均以Token计算。

11. MoE(Mixture of Experts)混合专家模型

将大模型拆分为多个“小专家模块”,输入问题时只激活对应专家,大幅降低算力消耗、提升推理速度,GPT-4、Claude 3均采用此架构。

12. 多模态大模型(Multimodal LLM)

能同时理解/生成文字、图片、音频、视频、3D的模型,打破单一文本限制,如GPT-4V、文心一格、Sora。 

二、机器学习基础术语

13. AI(Artificial Intelligence)人工智能

让机器模拟人类智能(感知、推理、学习、创造、决策)的技术总称,是最大的概念范畴。

14. ML(Machine Learning)机器学习

AI的核心分支,让机器从数据中自动学习规律,无需人工编写固定规则,是AI的实现方式。

15. DL(Deep Learning)深度学习

机器学习的子集,使用多层神经网络模拟人脑结构,处理复杂任务(图像、语音、语言),大模型均属于深度学习。

16. 训练(Training)

模型学习数据规律的过程,消耗大量算力与时间,得到可使用的模型权重。

17. 推理(Inference)

模型训练完成后,接收输入并输出结果的过程(如提问→回答),速度快、成本低。

18. 数据集(Dataset)

训练模型用的数据集合,分为训练集、验证集、测试集。

19. 监督学习(Supervised Learning)

用带标签的数据训练(如输入图片+标注“猫/狗”),模型学习映射关系,用于分类、预测。

20. 无监督学习(Unsupervised Learning)

用无标签数据训练,模型自动发现数据规律(聚类、降维)。

21. 过拟合(Overfitting)

模型过度记住训练数据,在新数据上表现极差,泛化能力差。

22. 泛化能力(Generalization)

模型处理未见过的新数据的能力,是模型好坏的核心指标。 

三、深度学习 & 神经网络术语

23. 神经网络(Neural Network)

模仿人脑神经元连接的计算结构,是深度学习的基础单元。

24. 参数(Parameters)

模型学习到的权重与偏差,参数越多,模型容量越强、能力越强(大模型参数通常达百亿/千亿级别)。

25. Transformer

当前所有大模型的基础架构,依靠“注意力机制”实现高效文本理解,2017年提出,彻底改变NLP与AI领域。

26. 注意力机制(Attention)

让模型重点关注输入中关键信息(如读句子时抓住核心词),提升理解效率。

27. CNN(Convolutional Neural Network)卷积神经网络

专门用于图像识别、目标检测的神经网络,如人脸识别、图片分类。

28. RNN/LSTM 循环神经网络

早期用于处理序列数据(语音、文本)的模型,现已基本被Transformer替代。

29. 预训练(Pre-training)

在大规模通用数据上先完成基础学习,得到基座模型,是大模型的第一步。

30. 微调(Fine-tuning)

在预训练模型基础上,用小批量垂直数据优化,适配特定场景(如医疗、法律、客服)。 

四、AI技术应用 & 工程术语

31. NLP(Natural Language Processing)自然语言处理

让机器理解、处理、生成人类语言的技术,LLM属于NLP顶级成果。

32. ASR(Automatic Speech Recognition)自动语音识别

将语音转文字,如讯飞听见、微信语音转文字。

33. TTS(Text To Speech)文字转语音

将文字生成人声,如AI配音、导航语音、数字人播报。

34. OCR(Optical Character Recognition)光学字符识别

从图片/扫描件中提取文字,如身份证识别、文档扫描。

35. AIGC(AI Generated Content)AI生成内容

用AI自动生成文本、图片、音频、视频、代码,是当前AI最热门应用方向。

36. 文生图(Text-to-Image)

输入文字描述,AI生成对应图片,如Midjourney、Stable Diffusion、文心一格。

37. 文生视频(Text-to-Video)

输入文字生成视频,如Sora、Pika、Runway。

38. 数字人(Virtual Human)

用AI生成的虚拟人物形象,可直播、播报、交互,结合TTS+唇形同步+动作驱动。

39. API(Application Programming Interface)应用程序接口

AI模型的调用入口,开发者通过API将AI能力接入软件、APP、系统。

40. 开源模型(Open Source Model)

公开模型权重与代码,可本地部署、二次开发,如Llama、Qwen、Mistral。

41. 闭源模型(Closed Source Model)

不公开核心代码与权重,仅提供API服务,如GPT-4、文心一言、Claude。

42. 本地部署(Local Deployment)

将模型运行在自己的服务器/电脑上,不上云,数据更安全、隐私性更强。 

五、AI伦理与行业概念

43. 对齐(Alignment)

让AI的行为、目标与人类价值观、利益保持一致,避免有害输出。

44. 可解释性AI(XAI)

让AI的决策可被人类理解,而非“黑箱”。

45. 算力(Computing Power)

AI训练与推理的计算能力,核心依赖GPU、NPU、TPU等芯片。

46. 大模型微调(LoRA)

轻量级微调技术,仅训练少量参数,速度快、成本低,是企业垂直定制模型主流方案。

47. 全量微调(Full Fine-tuning)

微调模型全部参数,效果更好,但算力成本极高。

48. AI Agent(智能体)

能自主理解目标、规划步骤、执行任务、自主纠错的AI,无需人类逐轮干预,是下一代AI方向。

49. 知识图谱(Knowledge Graph)

用节点+关系存储结构化知识,辅助AI理解逻辑与事实,减少幻觉。

50. 零样本学习(Zero-shot Learning)

模型无需专门训练,直接完成陌生任务(如没学过法语,直接翻译法语),大模型核心能力之一。

 
合肥市首席信息官协会 皖ICP备14013738号 技术支持:分形科技