人工智能原理及应用

选择题题库

一、Agent

5. (多选题)Agent与对象的差异主要体现在下面的几点:(ABCD)

  • A. agent具有主动性和自治性,对象只能被动地被调用。
  • B. agent之间交互使用通信语言,对象之间交互是通过互相调用方法。
  • C. agent具有社会性、理性等心智特征。
  • D.agent具有智能,通常拥有自己的知识库和推理机,而对象一般不具有智能性。

6. (多选题)agent的思维的代表方式有(ABCD)。

  • A. 求解
  • B.规划
  • C.推理
  • D.学习

★9. (多选题)协商协议通常可以用三种形式化的方法进行描述,即(ABC)。

  • A.巴科斯范式
  • B.有限自动机
  • C.语义表示
  • D.语义网络

★10. (多选题)从建造Agent的角度出发,一般情况下,单个Agent的结构可分为:(ABD)

  • A.思考型Agent
  • B.反应型Agent
  • C.设计型Agent
  • D.混合型Agent

二、确定性推理

1. (多选题)下面哪些是知识的特性?(ABCD)

  • A.相对正确性
  • B.不确定性
  • C.可表示性
  • D.可利用性

★2. (多选题)产生式由以下几部分组成(ABC)。

  • A.规则库
  • B.综合数据库
  • C.推理机
  • D.学习器

3. (多选题)常见的产生式规则冲突解决策略有(ABCD)。

  • A.专一性排序
  • B.规则排序
  • C.规模排序
  • D.就近排序

三种推理

归纳推理:个别或特殊的事例出发,概括出一般性、普遍性的结论,是一种 “从特殊到一般” 的推理。

演绎推理:一般性、普遍性的原理或前提出发,推导得出个别、特殊的结论,是一种 “从一般到特殊” 的推理。

自然演绎推理:演绎推理的一种具体实现方法,它不预设公理,仅以一组推理规则为基础,从前提命题出发,通过逐步应用推理规则来推导出结论。

12. (单选题)下面哪项不是一阶谓词逻辑表示法的优点?(B)

  • A. 精确性
  • B.效率高
  • C.容易实现
  • D.严密性

★14. (单选题)连接词的优先级(A)。

  • A. ﹁ ∧ ∨ → ↔
  • B.∧ ∨ → ↔ ﹁
  • C.→ ↔ ﹁ ∧ ∨
  • D.﹁ ∨ ∧ → ↔

★15. (单选题)归结原理是1956年(C)提出的。

  • A. 麦卡锡
  • B. 明斯基
  • C. 鲁宾孙
  • D. 罗伯特

★17. (单选题)从初始证据出发,按某种策略不断运用知识库中的已知知识,逐步推出结论的过程称为(D)

  • A. 归纳
  • B. 演绎
  • C. 证明
  • D. 推理

★18. (单选题)谓词公式化为子句集的步骤不包括(B)

  • A. 消去谓词公式中的“蕴涵”和“等价”连接词
  • B. 消去全称量词
  • C. 变量标准化
  • D.化为Skolem标准型范式

三、不确定性推理

★1. (多选题)不确定性推理,包括(ABCD)

  • A.主观Bayes推理
  • B.证据理论
  • C.模糊推理
  • D.概率推理

2. (多选题)不确定性推理主要研究不确定性的(ABCD)问题。

  • A. 表示
  • B. 计算
  • C. 推理
  • D. 语义

3. (多选题)客观不确定性的来源主要有(AB)。

  • A. 随机性
  • B. 模糊性

4. (单选题)下面哪项不属于不确定性推理方法(C)

  • A. 可信度方法
  • B. 证据理论
  • C. 自然演绎推理
  • D. 模糊推理

5. (单选题)在可信度方法中,证据E的出现增加结论H为真时,需满足(B)。

  • A. CF(H, E) > 1
  • B. CF(H, E) > 0
  • C. CF(H, E) = 0
  • D. CF(H, E) = 1

6. (单选题)在证据理论中,信任函数与似然函数对(Bel(A), Pl(A))的值为(0, 0)时,表示(B)。

  • A. A为真
  • B. 对A一无所知
  • C. A为假
  • D. 对A为真有一定信任

7. (单选题)在可信度方法中,若证据E的可信度CF(E) = 0,这意味着(B)。

  • A. 证据E不可信
  • B. 未获得任何相关的观察
  • C. 证据E可信
  • D. 没有意义

8. (单选题)在证据理论中,信任函数与似然函数的关系为(A)。

  • A. Bel(A) <= Pl(A)
  • B. Bel(A) < Pl(A)
  • C. Bel(A) >= Pl(A)
  • D. Bel(A) > Pl(A)

四、搜索

1. (多选题)下面哪些是A*搜索算法的特性?(ABC)

  • A. 可采纳性
  • B. 单调性
  • C. 信息性
  • D. 精确性

深度优先搜索是一种盲目搜索,不考虑到目标状态的代价

5. (单选题)基于状态空间的搜索算法是(A)。

  • A. A*算法
  • B. 与或树搜索
  • C. 极大极小分析法
  • D. α-β剪枝技术

8. (单选题)在A* 算法中,下面哪个函数用于表示从起点到当前节点的实际代价?(B)

  • A. f(n)
  • B. g(n)
  • C. h(n)
  • D. p(n)

10. (单选题)模糊集合是1965年(B)教授提出的

  • A. 麦卡锡
  • B. 扎德
  • C. 鲁宾孙
  • D. 罗伯特

11. (单选题)在搜索算法中,什么类型的图通常用于描述状态空间?(C)

  • A. 条形图
  • B. 饼图
  • C. 有向图

12. (单选题)在状态空间表示法中,一个节点通常代表什么?(B)

  • A. 一个动作
  • B. 一个状态
  • C. 一个问题

9. (单选题)已知A、B两个模糊集合如下,则AÇB中x1的隶属度为(A)

A=0.3/x1+0.5/x2+0.7/x3+0.4/x4

B=0.5/x1+1/x2+0.8/x3

  • A. 0.15
  • B. 0.2
  • C. 0.3
  • D. 0.5

五、遗传算法、群智能算法

1. (单选题)遗传算法的步骤涉及的第一个基本要素是(B)。

  • A. 初始群体的设定
  • B. 参数编码
  • C. 适应度函数的计算
  • D. 遗传操作设计

2. (单选题)转盘赌是遗传算法选择个体的一种方法。个体、适应度如下表所示,当产生随机数0.64时,要选择的个体是(C)。

个体01234567891011
适应度2.01.81.61.41.21.11.00.80.60.40.20.1
选择概率0.180.160.150.140.120.110.090.070.060.030.020.01
累积概率0.180.340.490.620.730.820.890.950.981.001.001.00
  • A. 3
  • B. 4
  • C. 5
  • D. 8

答案:C. 5

解析

在遗传算法的转盘赌选择中,核心是将随机数与累积概率进行比较,找到第一个累积概率大于该随机数的个体。

3. (单选题)在进化算法中,适应度函数用于评估什么?B

  • A. 变异的效果
  • B. 个体的质量或优劣
  • C. 群体的多样性
  • D. 交叉操作的成功率

4. (单选题)在粒子群优化中,每个粒子的速度是如何更新的?(B)

  • A. 随机生成新速度
  • B. 基于最佳局部和全局位置
  • C. 基于领导粒子的速度
  • D. 基于所有粒子的平均速度

6. (单选题)在遗传算法中,哪种操作主要用于保持种群多样性?C

  • A. 选择
  • B. 交叉
  • C. 变异

7. (单选题)在蚁群优化算法中,蚂蚁如何选择路径? B

  • A. 随机选择
  • B. 基于先前蚂蚁留下的信息素强度
  • C. 基于靠近食物的距离
  • D. 基于预定义的规则

9. (单选题)群智能算法通常用于解决什么类型的问题? C

  • A. 分类问题
  • B. 回归问题
  • C. 优化问题
  • D. 文本生成

10. (多选题)智能优化方法通常包括(CD)。

  • A. 约束优化
  • B. 无约束优化
  • C. 进化计算
  • D. 群智能

11. (多选题)群智能算法包括(ABCD)。

  • A. 粒子群算法
  • B. 蚁群算法
  • C. 蜂群算法
  • D. 鱼群算法

遗传算法是一种全局优化概率算法。

进化算法非常适用于处理传统搜索方法难以解决的复杂和非线性优化问题。

在遗传算法中,个体的适应度越高,该个体被选作父代的机会越大。

六、神经网络

1. (多选题)决定人工神经网络性能的三大要素是(ACD)

  • A. 神经元的特性
  • B. 神经元个数
  • C. 神经元之间的连接形式,即拓扑结构
  • D. 学习规则

2. (多选题)下面方法中属于人工神经网络中常见的优化函数的有(ABCD)。

  • A. 随机梯度下降法(SGD)
  • B. 标准动量优化方法Momentum
  • C. 自适应梯度Adagrad算法
  • D. 均方根支柱RMSProp算法

BP网络是多层前馈网络,Hopfield网络是全互联反馈网络。

★11. (单选题)(C)是一种处理时序数据的神经网络,常用于语音识别,机器翻译等领域。

  • A. 前馈神经网络
  • B. 卷积神经网络
  • C. 循环神经网络
  • D.对抗神经网络

12. (单选题)BP神经网络模型拓扑结构不包括(A)。

  • A. 显层
  • B. 隐层
  • C. 输入层
  • D. 输出层

★15. (单选题)以下对卷积神经网络影响最大的关键参数是: B

  • A. 卷积有无偏置值
  • B. 网络深度
  • C. 网络结构
  • D. 池化核尺寸

简答题

绪论、人工智能安全与伦理

注:以下内容课上强调多遍,很可能考到。

1.智能的概念?什么是人工智能?

智能是知识与智力的总和。其中,知识是一切智能行为的基础,而智力是获取知识并应用知识求解问题的能力。

所谓人工智能就是用人工的方法在机器(计算机)上实现的智能,又称为机器智能。

2.★人工智能四大核心问题是什么?

知识表示搜索推理机器学习

3.人工智能发展简史?

1956年之前:孕育

1956——1969年:形成

1970——2010年:艰难发展

2011——今:大数据驱动人工智能发展期

4.★人工智能三大学派?

学派名称别名模拟对象核心观点典型技术
符号主义 (Symbolism)逻辑主义 / 计算机学派人的抽象思维智能的基础是知识表示逻辑推理。认为智能等同于符号运算。专家系统、知识图谱、谓词逻辑
连接主义 (Connectionism)仿生学派 / 结构主义人的大脑结构智能来源于神经网络的连接。通过学习调整连接权重来实现智能。神经网络、深度学习、CNN/RNN
行为主义 (Actionism)进化主义 / 控制论学派人的感知行为智能是在与环境的交互中表现出来的行为。认为不需要预设知识。强化学习、机器人控制、进化计算

5.【真题】关于人工智能的伦理问题?

答案模板:

  1. 观点引领: AI伦理是技术发展与人类社会秩序的博弈。
  2. 分点论述:

    • 数据层面: 关注隐私泄露与数据确权问题。
    • 算法层面: 关注算法偏见、歧视及缺乏透明度(黑箱效应)。
    • 法律层面: 关注自动驾驶等自主系统导致的归责难题
  3. 总结建议: 我们应在发展中规范,通过技术透明立法监管国际协作,构建和谐的人机共生关系。

6.【真题】人工智能的学习策略有哪些?

机械学习极低外部直接提供
示教学习较低专家/老师★★
演绎学习中等已有公理/规则★★★
类比学习较高相似的历史案例★★★★
归纳学习海量原始数据★★★★★
强化学习极高环境反馈(奖惩)★★★★★

知识表示

注:往年考过大题,今年大题没有知识表示,很可能在简答题考。

【真题】用语义网络表示一句话?(见课本P48-55)

进化算法、群智能算法

注:这一部分不考大题,很可能在简答题考,描述算法思想。

1.遗传算法的基本步骤?主要特点?

基本步骤:
  1. 初始化: 随机产生一组初始个体,构成种群(Population)。
  2. 个体评价: 计算种群中每个个体的适应度值(Fitness Value)。
  3. 选择 (Selection): 根据适应度大小,从当前种群中选择优良个体,作为下一代的父本(如轮盘赌法)。
  4. 交叉 (Crossover): 将选出的父本成对结合,交换部分基因,产生新的子代(模拟有性生殖)。
  5. 变异 (Mutation): 以极低的概率随机改变子代中的某些基因(增加种群多样性,防止陷入局部最优)。
  6. 终止判断: 检查是否达到预设的迭代次数或找到了满意的最优解。若未达到,返回步骤2。
主要特点:
  1. 群体搜索: 遗传算法不是单点搜索,而是同时处理多个潜在解,具有较好的全局寻优能力
  2. 非确定性(随机性): 选择、交叉、变异都是按概率进行的,这使它能跳出局部极值。
  3. 对目标函数要求低: 不需要函数连续或可导,只需计算函数值即可(通过适应度函数)。
  4. 自组织与自适应性: 在搜索过程中能自动获取并积累知识,自适应地控制搜索过程。

2.适应度函数在遗传算法中的作用?

  1. 衡量优劣: 它是评价个体性能的唯一标准,反映了该个体对环境的适应能力。
  2. 驱动演化: 适应度越高,被选中并遗传到下一代的概率越大。它决定了种群进化的方向。
  3. 转换目标: 它将问题的目标函数(如最小化成本)转化为非负的、可比较的适应度值(如最大化收益)。

3.解释多种群算法与基本遗传算法的异同?

多种群算法(Multi-population GA)是对基本遗传算法的重要改进,其异同点如下:

相同点:
  • 核心算子: 两者都使用选择、交叉和变异这三种基本算子。
  • 演化机制: 都遵循达尔文的进化论思想(适者生存)。
不同点:
特性基本遗传算法 (SGA)多种群遗传算法
种群结构单一种群,所有个体在同一环境中演化。分为多个独立演化的子种群,类似于地理隔离。
控制参数全局统一的交叉、变异概率。不同子种群可以设置不同的参数(提高搜索效率)。
交流机制无。存在“移民算子”:子种群间定期交换优秀个体。
收敛速度易出现“早熟”收敛,陷入局部最优。较好保持了种群多样性,全局寻优能力极强。

4.计算染色体长度(P238习题)

用遗传算法求解某非线性函数的最小值,函数略,0<=x_i<=1.5,i=1,2

采用二进制编码,编码精度为0.1,试确定染色体长度

编码精度 = (u_max - u_min) / (2^n - 1)

0.1 = ( 1.5 - 0 ) / (2 ^ n - 1)

n = 4

5.群智能算法的基本思想?主要特点?列举几种?

基本思想

群智能算法的核心思想是“涌现”(Emergence)。它模拟了自然界中社会性生物(如蚁群、鸟群、鱼群)的群体行为。

  • 个体简单: 单个个体往往不具备智能,且仅遵循简单的行为规则。
  • 群体协同: 个体之间通过局部的信息交互和对环境的感应,在宏观上表现出极其复杂的、有目的的智能行为。
主要特点
  1. 分布式: 没有中心控制中心,鲁棒性强(个体的故障不影响整体运行)。
  2. 自组织性: 通过局部交互自动演化出解决问题的路径。
  3. 简单性: 个体结构简单,易于计算机实现。
  4. 正反馈性: 优秀的解会被群体中越来越多的个体感知并采纳。
典型算法列举
  • 蚁群算法 (Ant Colony Optimization, ACO): 模拟蚂蚁寻找食物时释放信息素的行为。
  • 粒子群算法 (Particle Swarm Optimization, PSO): 模拟鸟群捕食时的速度与位置更新。
  • 鱼群算法 (Artificial Fish Swarm Algorithm, AFSA): 模拟鱼类的聚群、觅食及追尾行为。
  • 萤火虫算法 (Firefly Algorithm): 模拟萤火虫通过发光亮度互相吸引。

6.蚁群算法中的寻优过程包含哪几个阶段?寻优的准则有哪些?

寻优过程包含的阶段

蚁群算法的寻优过程通常可以分为三个主要循环阶段:

  1. 路径构建阶段 (Path Construction):

    • 每只蚂蚁根据当前节点各条路径上的信息素强度启发式信息(如距离的倒数),按概率选择下一个节点,直到完成一条完整的路径。
  2. 信息素更新阶段 (Pheromone Updating):

    • 挥发: 所有路径上的信息素随时间自动挥发(防止陷入局部最优)。
    • 加强: 根据蚂蚁找到的路径质量(路径越短,留下的信息素越多),在相应的路径上增加信息素。
  3. 迭代进化阶段 (Iteration):

    • 通过多次重复上述两个过程,短路径上的信息素浓度越来越高,最终整个蚁群趋向于找到一条全局最短路径。
寻优的准则
  • 随机比例选择准则 (Probabilistic Decision): 蚂蚁不是死板地走信息素最浓的路,而是根据概率公式计算。

    • 信息素浓度: 浓度越高,被选概率越大(体现先验经验)。
    • 启发式信息: 距离越短,被选概率越大(体现局部贪婪)。
  • 信息素挥发准则: 通过信息素的衰减机制,使得算法具有遗忘早期错误经验的能力,从而能够探索新的空间。
  • 正反馈准则: 质量越好的解,对环境的贡献越大,吸引后续个体的能力越强。

神经网络、机器学习

1.简述机器学习系统的基本结构?各部分的作用?

一个完整的机器学习系统通常可以抽象为由环境、学习、知识库、执行四个基本环节构成的反馈系统。

  • 环境 (Environment):

    作用: 向系统提供外部信息。它是学习信息的来源,通常表现为原始数据、案例或来自环境的奖惩信号。

  • 学习环节 (Learning Element):

    作用: 系统最核心的部分。它负责处理环境提供的信息,利用特定算法进行归纳、类比或演绎,从而发现规律,并将学到的知识存入知识库。

  • 知识库 (Knowledge Base):

    作用: 存储通过学习获得的模式、规则或函数参数。知识库的质量直接决定了系统的“智能”程度。

  • 执行环节 (Performance Element):

    作用: 利用知识库中的知识来完成具体的任务(如分类、预测)。同时,执行的结果会反馈给环境或学习环节,形成闭环,以进一步改进性能。

2.简述深度学习与BP学习算法的异同?

相同点
  • 核心机制相同: 深度学习的基础仍然是多层感知器。
  • 算法本质一致: 大多数深度学习模型在参数更新时,底层依然依赖 BP(反向传播)算法,即利用梯度下降法(Gradient Descent)将误差由输出层向输入层反向传播,从而调整权重。
不同点
特性BP 学习算法 (传统/浅层)深度学习 (Deep Learning)
层数结构通常只有 1-2 层隐藏层。拥有大量隐藏层(深层结构),可达数百层。
特征提取人工特征工程:需要专家手动提取特征。自动提取:通过多层非线性变换自动学习数据的特征表示。
训练难点易产生梯度消失或爆炸,陷入局部最优。通过残差连接、批归一化(BN)等技术克服训练难题。
计算资源对算力要求较低。对算力(GPU/TPU)和海量数据有极强依赖。
典型模型简单的 MLP(多层感知器)。CNN(卷积)、RNN(循环)、Transformer 等。

LLM&Agent

【真题】Agent编程范式与面向对象编程范式的区别?

  • agent具有主动性和自治性,对象只能被动地被调用。
  • agent之间交互使用通信语言,对象之间交互是通过互相调用方法。
  • agent具有社会性、理性等心智特征。
  • agent具有智能,通常拥有自己的知识库和推理机,而对象一般不具有智能性。

解答题

确定性推理

【真题】证明G是F1,F2的逻辑结论(子句集归结反演)

题目略。

要证明G是F1,F2的逻辑结论,使用子句集归结反演的核心原理是:证明 F1∧F2∧¬G 是不可满足的(即该公式对应的子句集能归结出空子句NIL)。

【随堂练习】解答题

将谓词公式 (∀x)(∃y)(P(x,y)∨(Q(x,y)→R(x,y))) 化为相应的子句集。

步骤 1:消去蕴含符号

公式中的 Q(x,y)→R(x,y) 等价于 ¬Q(x,y)∨R(x,y),

原公式变为:(∀x)(∃y)(P(x,y)∨¬Q(x,y)∨R(x,y))

步骤 2:否定符号内移

这一步这里已经没有需要内移的否定,直接进入下一步。

步骤 3:变量标准化

公式中的变量已经是标准形式,不需要重命名。

步骤 4:消去存在量词 (∃y)

存在量词 (∃y) 在全称量词 (∀x) 的辖域内,因此需要用Skolem 函数f(x) 替换 y,

得到:(∀x)(P(x,f(x))∨¬Q(x,f(x))∨R(x,f(x)))

步骤 5:消去全称量词 (∀x)

消去全称量词后,公式变为:

P(x,f(x))∨¬Q(x,f(x))∨R(x,f(x))

步骤 6:转化为合取范式

上式已经是一个子句(单个析取式),因此合取范式就是它本身。

步骤 7:分解为子句集

将合取范式中的每个合取项作为一个子句,这里只有一个子句,

所以最终的子句集为:{P(x,f(x))∨¬Q(x,f(x))∨R(x,f(x))}

【随堂练习】解答题

用归结方法证明下列公式为恒真。

(H(x)→M(x))∧H(a)→M(a)

要使用归结方法证明公式恒真,核心思路是:证明公式的否定是不可满足的(即否定式的子句集能推出空子句NIL)。

步骤 1:写出原公式的否定式

原公式为((H(x)→M(x))∧H(a))→M(a)

根据蕴含等价式 A→B⟺¬A∨B,公式的否定为¬[¬((H(x)→M(x))∧H(a))∨M(a)]

再根据德摩根定律化简:(H(x)→M(x))∧H(a)∧¬M(a)

步骤 2:消去蕴含符号,转化为子句形式

  1. 对 H(x)→M(x) 消去蕴含:¬H(x)∨M(x)
  2. 其余两项保持不变:H(a)、¬M(a)

由此得到否定式对应的子句集:S={¬H(x)∨M(x), H(a), ¬M(a)}

步骤 3:对子句集进行归结推理

归结的核心规则:若两个子句有互补文字(如 L 和 ¬L),则消去互补文字,合并剩余部分得到新子句。

  1. 取子句 C1=¬H(x)∨M(x) 和 C3=¬M(a)

    • 互补文字:M(x) 和 ¬M(a)
    • 进行代换 σ={a/x}(将 x 替换为 a)
    • 代换后 C1 变为 ¬H(a)∨M(a)
    • 归结得到新子句 C4=¬H(a)
  2. 取新子句 C4=¬H(a) 和子句 C2=H(a)

    • 互补文字:¬H(a) 和 H(a)
    • 归结后消去所有文字,得到空子句 NIL

步骤 4:结论

子句集 S 推出了空子句,说明原公式的否定式不可满足,因此原公式是恒真公式

【随堂练习】解答题

用归结原理证明子句集 S={P∨Q,¬P∨Q,P∨¬Q,¬P∨¬Q} 是不可满足的。

要使用归结原理证明子句集不可满足,核心逻辑是:从子句集出发,通过不断归结互补文字的子句,最终推导出空子句 NIL(空子句的出现意味着子句集存在矛盾,即不可满足)。

已知子句集 S={C1:P∨Q, C2:¬P∨Q, C3:P∨¬Q, C4:¬P∨¬Q}

归结推理步骤

  1. 取 C1=P∨Q 和 C2=¬P∨Q

    • 互补文字:P 与 ¬P
    • 消去互补文字,归结得到新子句:C5=Q
  2. 取 C3=P∨¬Q 和 C4=¬P∨¬Q

    • 互补文字:P 与 ¬P
    • 消去互补文字,归结得到新子句:C6=¬Q
  3. 取 C5=Q 和 C6=¬Q

    • 互补文字:Q 与 ¬Q
    • 消去互补文字,归结得到空子句:C7=NIL

结论:子句集 S 经过归结推理推导出了空子句,因此子句集 S 是不可满足的

不确定性推理(2题)

1.★Bayes方法

(1)知识的表示:$R: E \to H$

在主观Bayes中,每一条知识(规则)通常表示为:

IF $E$ THEN $H$ $(LS, LN)$

  • $E$ (Evidence): 证据(前提条件)。
  • $H$ (Hypothesis): 结论(假设)。
  • $P(H)$: 结论 $H$ 的先验概率,即在没有证据 $E$ 出现前,专家对 $H$ 成立的信心。
  • $LS$ (充分性度量, Likelihood of Sufficiency): 定义:$LS = \frac{P(E|H)}{P(E|\neg H)}$

    • 含义:$E$ 对 $H$ 的支持程度。$LS$ 越大,说明 $E$ 出现对 $H$ 成立的支撑越强。
  • $LN$ (必要性度量, Likelihood of Necessity): 定义:$LN = \frac{P(\neg E|H)}{P(\neg E|\neg H)}$

    • 含义:$E$ 对 $H$ 的必要程度。$LN$ 越小,说明 $E$ 不出现对 $H$ 成立的削弱越重。
(2)几率 (Odds) 的引入

为了计算方便,主观Bayes常将概率 $P$ 转换为几率 $O$:

$$O(X) = \frac{P(X)}{1 - P(X)}$$

  • 如果 $P=0.5$,则 $O=1$。
  • 如果 $P=0.8$,则 $O=4$。
(3)推理计算步骤
(1) 当证据 $E$ 确定存在时 ($P(E|S) = 1$)

使用贝叶斯公式的变形,直接计算 $H$ 的后验几率:

  • $O(H|E) = LS \cdot O(H)$ (证据存在,变强)
  • $O(H|\neg E) = LN \cdot O(H)$ (证据不存在,变弱)
(2) 当证据 $E$ 不确定时 (更具普遍意义的情况)

如果证据 $E$ 本身也是推测出来的(其概率为 $P(E|S)$),我们需要使用杜达(Duda)计算公式(线性插值法):

$$P(H|S) = \begin{cases} P(H|\neg E) + \frac{P(H) - P(H|\neg E)}{P(E)} \cdot P(E|S) & 0 \le P(E|S) < P(E) \\ P(H) + \frac{P(H|E) - P(H)}{1 - P(E)} \cdot (P(E|S) - P(E)) & P(E) \le P(E|S) \le 1 \end{cases}$$

简单记忆: 这是一个折线函数。当 $P(E|S)$ 从 0 增加到 1 时,$P(H|S)$ 会从最差情况(证据肯定不存在)经过先验点,最终到达最好情况(证据肯定存在)。
【例题】

已知某专家系统中有如下一条规则:

$R$:如果 发现地表有某种特殊矿物 ($E$),则 存在大型矿床 ($H$)

专家给出的参数如下:

  • 结论的先验概率:$P(H) = 0.03$
  • 规则的充分性度量:$LS = 10$
  • 规则的必要性度量:$LN = 0.01$

问题:

  1. 如果观察到证据 $E$ 肯定存在,求 $H$ 的后验概率 $P(H|E)$。
  2. 如果观察到证据 $E$ 肯定不存在,求 $H$ 的后验概率 $P(H|\neg E)$。
【详细解答步骤】
步骤 1:将先验概率转换为先验几率 (Odds)

公式:$O(H) = \frac{P(H)}{1 - P(H)}$

$$O(H) = \frac{0.03}{1 - 0.03} = \frac{0.03}{0.97} \approx 0.0309$$

步骤 2:计算证据肯定存在时的后验概率
  1. 计算后验几率:

当 $E$ 肯定存在时,使用 $LS$ 进行修正:

$$O(H|E) = LS \times O(H) = 10 \times 0.0309 = 0.309$$

  1. 将几率转换回概率:

公式:$P = \frac{O}{1 + O}$

$$P(H|E) = \frac{0.309}{1 + 0.309} = \frac{0.309}{1.309} \approx 0.236$$

结论: 证据 $E$ 的出现使 $H$ 成立的概率从 $0.03$ 提升到了 $0.236$(约 8 倍)。

步骤 3:计算证据肯定不存在时的后验概率
  1. 计算后验几率:

当 $E$ 肯定不存在时,使用 $LN$ 进行修正:

$$O(H|\neg E) = LN \times O(H) = 0.01 \times 0.0309 = 0.000309$$

  1. 将几率转换回概率:

$$P(H|\neg E) = \frac{0.000309}{1 + 0.000309} \approx 0.0003$$

结论: 证据 $E$ 的缺失使 $H$ 成立的概率从 $0.03$ 骤降到了 $0.0003$(降低了 100 倍)。

【深度解析:LS 和 LN 的考点】

通过这个例题,你可以总结出考试中关于 $LS$ 和 $LN$ 的判断准则:

  1. 充分性支持 ($LS$):

    • $LS > 1$:$E$ 的出现增加 $H$ 的概率(如本题 $LS=10$)。
    • $LS = 1$:$E$ 是否出现对 $H$ 无影响。
    • $0 < LS < 1$:$E$ 的出现反而削弱 $H$。
  2. 必要性支持 ($LN$):

    • $LN < 1$:$E$ 的缺失削弱 $H$ 的概率(如本题 $LN=0.01$,削弱极强)。
    • $LN = 1$:$E$ 的缺失对 $H$ 无影响。
    • $LN > 1$:$E$ 的缺失反而增加 $H$ 成立的可能性。

2.【真题】可信度方法的计算题

(1)知识的表示

在CF模型中,知识被表示为:

IF $E$ THEN $H$ $(CF(H, E))$

  • $CF(H, E)$可信度因子(Certainty Factor),取值范围为 $[-1, 1]$。

    • $CF > 0$:证据 $E$ 出现增加对 $H$ 的支持。
    • $CF < 0$:证据 $E$ 出现削弱对 $H$ 的支持。
    • $CF = 0$:证据 $E$ 与 $H$ 无关。
    • $CF = 1$:证据 $E$ 存在则 $H$ 必真;$CF = -1$:证据 $E$ 存在则 $H$ 必假。
(2)推理计算的“三部曲”

第一步:计算结论的可信度

如果证据 $E$ 是确定的(即 $CF(E) = 1$),那么结论 $H$ 的可信度就是 $CF(H, E)$。

如果证据 $E$ 是不确定的,则结论 $H$ 的可信度为:

$$CF(H) = CF(H, E) \times \max(0, CF(E))$$

注意: 如果证据的可信度小于0(完全不相信证据),则结论可信度为0。

第二步:复合前提的计算(与、或关系)

当规则的前提是由多个条件组合而成时:

  • AND(与): 取各前提可信度的最小值

    • $CF(E_1 \land E_2) = \min\{CF(E_1), CF(E_2)\}$
  • OR(或): 取各前提可信度的最大值

    • $CF(E_1 \lor E_2) = \max\{CF(E_1), CF(E_2)\}$

第三步:结论的合成(不同证据支持同一结论)

如果有两条规则指向同一个结论 $H$,其各自计算出的可信度分别为 $CF_1$ 和 $CF_2$:

$$CF_{combine}(CF_1, CF_2) = \begin{cases} CF_1 + CF_2 - CF_1 \cdot CF_2 & CF_1, CF_2 \ge 0 \\ CF_1 + CF_2 + CF_1 \cdot CF_2 & CF_1, CF_2 < 0 \\ \frac{CF_1 + CF_2}{1 - \min(|CF_1|, |CF_2|)} & CF_1, CF_2 \text{异号} \end{cases}$$

3. 例题演示

题目:

已有两条规则:

  1. $R_1$: IF $E_1$ AND $E_2$ THEN $H$ ($CF=0.8$)
  2. $R_2$: IF $E_3$ THEN $H$ ($CF=0.6$)

    已知证据可信度:$CF(E_1)=0.9, CF(E_2)=0.5, CF(E_3)=0.7$。求 $H$ 的综合可信度。

解答:

  1. 处理 $R_1$:

    • 前提 $CF(E) = \min(0.9, 0.5) = 0.5$
    • 结论 $CF_1(H) = 0.8 \times 0.5 = 0.4$
  2. 处理 $R_2$:

    • 结论 $CF_2(H) = 0.6 \times 0.7 = 0.42$
  3. 合成结论:

    • 由于 $CF_1, CF_2$ 均大于 0,使用同号公式:
    • $CF(H) = 0.4 + 0.42 - 0.4 \times 0.42 = 0.82 - 0.168 = 0.652$

3.模糊推理

(1)核心概念:从“集合”到“隶属度”
  • 传统集合(明晰集): 一个元素要么属于集合(1),要么不属于(0)。
  • 模糊集合(Fuzzy Set): 一个元素以 隶属度 $\mu$ 属于某个集合,$\mu$ 的取值范围在 $[0, 1]$ 之间。
  • 隶属函数: 描述元素属于模糊集合程度的函数(常见的有三角形、梯形、高斯型)。
(2)模糊推理的四个基本步骤

模糊推理通常采用 Mamdani(曼达尼)方法,其过程如下:

第一步:模糊化 (Fuzzification)

将精确的输入值(如:温度 $25$ 度)转换为模糊集合的隶属度。

  • 例如:$25$ 度可能属于“凉爽”的程度为 $0.4$,属于“温暖”的程度为 $0.6$。
第二步:规则评估 (Rule Evaluation)

处理“如果...那么...”规则。前提条件通常包含模糊运算:

  • 交集(AND): 取隶属度的最小值($\min$)。
  • 并集(OR): 取隶属度的最大值($\max$)。
  • 补集(NOT): $1 - \mu$。
第三步:聚合 (Aggregation)

将所有规则的输出组合成一个统一的模糊集合。

第四步:解模糊化 (Defuzzification)

将推理得到的模糊输出转换回现实世界的精确数值(如:空调转速 $800$ 转)。

  • 重心法(Centroid): 取模糊区域的几何中心,这是最常用的方法。
  • 最大隶属度法: 取隶属度最高的那个点。
(3)例题详解:模糊控制器计算

题目:

设有一个洗衣机控制器,规则如下:

R1: 如果 衣物很脏($A$),则 洗涤时间长($B$)

已知:

  1. “衣物很脏”的隶属函数在 $x=80$(脏度)时,隶属度 $\mu_A(80) = 0.7$。
  2. 推理公式采用 $z = \mu_A \cdot \mu_B$。

解答步骤:

  1. 输入: 测量得脏度为 $80$。
  2. 模糊化: 查得 $\mu_A = 0.7$。
  3. 推理: 根据规则,输出模糊集“时间长”将被削减(或截断)到 $0.7$ 的高度。
  4. 解模糊: 计算削减后的“时间长”图形的重心,得到最终的洗涤分钟数。

搜索

DFS:深度优先搜索,open表是栈,先进后出,每次取open表中最后一个加入close表并进行扩展。

BFS:宽度优先搜索,open表是队列,先进先出,每次取open表中第一个加入close表并进行扩展。

全局择优:A*算法,open表是优先队列(从小到大排序),每次取open表中第一个加入close表并进行扩展。

局部择优:如爬山法,贪心策略,每次选择当前节点的子节点中最小的进行扩展,不能回溯,可能无法找到答案。

【真题】用全局择优的方式表示八数码问题的搜索过程,并写出open表,closed表的变化过程。

略。

BP神经网络

【真题】描述BP神经网络的函数映射关系,以及权重调整方式。

模块一:前向传播(求输出)

话术: “首先进行前向传播,计算各层神经元的净输入 $z$ 与输出 $a$。”

  1. 隐藏层节点 $h$:

    • 净输入:$z_h = \sum (w_{in} \cdot x_i) + b_h$
    • 激活输出:$a_h = \text{Sigmoid}(z_h) = \frac{1}{1 + e^{-z_h}}$
  2. 输出层节点 $o$:

    • 净输入:$z_o = \sum (w_{out} \cdot a_h) + b_o$
    • 实际输出:$a_o = \text{Sigmoid}(z_o)$
模块二:误差评估(求损失)

话术: “定义损失函数 $E$,计算当前输出与期望目标之间的误差。”

  • 公式: $E = \frac{1}{2} (y_{target} - a_o)^2$
  • (注:如果有多个输出节点,则进行求和 $\sum$)
模块三:反向传播(求梯度 $\delta$)

这是最关键的步骤,记住口诀:误差项 = (输出 - 目标) $\times$ 激活函数导数。

  1. 输出层误差项 $\delta_o$:

    • $\delta_o = \frac{\partial E}{\partial z_o} = (a_o - y_{target}) \cdot a_o(1 - a_o)$
  2. 隐藏层误差项 $\delta_h$:

    • 话术: “隐藏层的误差由输出层反向传播并加权求和得到。”
    • $\delta_h = (\delta_o \cdot w_{out}) \cdot a_h(1 - a_h)$
模块四:权重更新(求新 $w$)

话术: “根据梯度下降法,利用学习率 $\eta$ 更新权值参数。”

  1. 更新输出层权重:

    • $\Delta w_{out} = \eta \cdot \delta_o \cdot a_h$
    • $w_{out}^{new} = w_{out}^{old} - \Delta w_{out}$
  2. 更新输入层权重:

    • $\Delta w_{in} = \eta \cdot \delta_h \cdot x_i$
    • $w_{in}^{new} = w_{in}^{old} - \Delta w_{in}$
【例题】

已知一个 3 层神经网络(1 个输入、1 个隐藏、1 个输出):

  1. 输入值: $x = 0.5$
  2. 初始权重: $w_1 = 0.2$(输入到隐藏),$w_2 = 0.6$(隐藏到输出)
  3. 偏置项: $b_1 = 0.1$,$b_2 = 0.2$
  4. 学习率: $\eta = 0.1$
  5. 期望目标: $y_{target} = 0.8$
  6. 激活函数: $f(z) = \text{Sigmoid}(z)$

要求: 计算一次迭代后的新权重 $w_2^{new}$。

【标准答题详解】
第一步:前向传播(Forward Propagation)

1. 隐藏层计算:

  • 净输入:$z_h = w_1 \cdot x + b_1 = 0.2 \times 0.5 + 0.1 = 0.2$
  • 激活输出:$a_h = f(z_h) = \frac{1}{1 + e^{-0.2}} \approx 0.55$

2. 输出层计算:

  • 净输入:$z_o = w_2 \cdot a_h + b_2 = 0.6 \times 0.55 + 0.2 = 0.53$
  • 实际输出:$a_o = f(z_o) = \frac{1}{1 + e^{-0.53}} \approx 0.63$
第二步:误差评估(Loss Evaluation)
  • 损失函数(MSE):$E = \frac{1}{2}(y_{target} - a_o)^2 = \frac{1}{2}(0.8 - 0.63)^2 = 0.01445$
第三步:反向传播(Back Propagation)

1. 计算输出层误差项 $\delta_o$:

  • 公式:$\delta_o = (a_o - y_{target}) \cdot a_o(1 - a_o)$
  • 计算:$\delta_o = (0.63 - 0.8) \times 0.63 \times (1 - 0.63)$
  • $\delta_o = -0.17 \times 0.63 \times 0.37 \approx -0.04$

2. 计算隐藏层误差项 $\delta_h$:

  • 公式:$\delta_h = (\delta_o \cdot w_2) \cdot a_h(1 - a_h)$
  • 计算:$\delta_h = (-0.04 \times 0.6) \times 0.55 \times (1 - 0.55)$
  • $\delta_h = -0.024 \times 0.55 \times 0.45 \approx -0.0059$
第四步:权重更新(Weight Update)

1. 更新隐藏层到输出层的权重 $w_2$:

  • 梯度:$\Delta w_2 = \eta \cdot \delta_o \cdot a_h$
  • 计算:$\Delta w_2 = 0.1 \times (-0.04) \times 0.55 = -0.0022$
  • 新权重:$w_2^{new} = w_2 - \Delta w_2 = 0.6 - (-0.0022) = 0.6022$

2. 更新输入层到隐藏层的权重 $w_1$(如有要求):

  • 梯度:$\Delta w_1 = \eta \cdot \delta_h \cdot x$
  • 计算:$\Delta w_1 = 0.1 \times (-0.0059) \times 0.5 = -0.000295$
  • 新权重:$w_1^{new} = w_1 - \Delta w_1 = 0.2 + 0.000295 = 0.200295$
分类: Courses 标签: 人工智能

评论

全部评论 1

  1. anonymous
    anonymous
    Google Chrome Windows 10
    人工智能的学习策略应该有有监督学习、无监督学习、弱监督学习,其中弱监督学习又包括半监督学习、迁移学习、强化学习。

目录