人工智能总结(精华版)

1、 PROLOG程序一般由一组事实、 规则和问题组成。事实一般表示对象的性质或关系;规则一般表示对象间的因果关系、蕴含关系或对应关系; 问题表示用户的询问是程序运行的目标。问题是程序执行的起点,称为程序的目标。PROLOG就是一种基于Horn子句的逻辑程序。

PROLOG程序的运行是从目标出发,并不断进行匹配、合一、归结,有时还要回溯,直到目标别完全满足或不能满足时为止。

PROLOG程序的执行过程是一个(归结)演绎推理过程。其特点是:推理方式为反向推理, 控制策略是深度优先, 且有回溯机制。

3、简述用A*算法求解问题时为什么会出现重复扩展节点问题,解决的方法有哪些?

答:当问题有解时,A*算法总是找到问题的最优解结束。如果h函数定义的不合理,则当扩展一个节点时,不一定就找到了从初始节点到该节点的最优路径,对于这样的节点,就有可能被多次扩展。特别是如果这样的节点处于问题的最优解路径上时,则一定会被多次扩展。解决的方法一是对h函数的定义给出限制,使得h满足单调性。对于满足单调性条件的h,则一定不会出现重复扩展节点问题。二是对A*算法加以改进,使用修正的A*算法进行搜索,这样,随着经验的丰富,系统的性能自然就会不断改善和提高。

24、机器学习的三个要素:信息,发展和知识。对应于机器学习的对象、方法和目标。

25、基于学习策略的分类:符号学习和神经网络学习。

26、决策树:也称判断树,它由对象的若干属性、属性值和有关决策组成的一棵树。其中的节点为属性,分支为属性值,从同一节点出发的各个分支之间是逻辑或关系,根节点为对象的一个属性;从根节点出发到每一个叶子节点的所有节点和边,按顺序串联成一条分支路径,位于同一分支路径上的各个属性-值对之间是逻辑与关系,叶子节点是这个与关系的对应结果,即决策。 27、决策树学习首先要有一个实例集,基本方法和步骤:(1)选取一个属性,按这个属性的不同取值对实例集进行分类;并以该属性作为根节点,以这个属性的诸取值作为根节点的分支,进行画树;(2)考察所得的每一个子类,看其中的实例的结论是否完全相同。如果相同,则以这个相同的结论作为相应分支路径末端的叶子节点;否则,选取一个非父节点的属性,按这个属性的不同取值对孩子集进行分类,并以该属性作为节点,以这个属性的诸取值作为节点的分支,继续进行画树。如此继续,直到所分的子集全都满足:实则可以减少重复扩展节点问题。

4、简述回溯策略与深度优先策略的不同点。

答:回溯搜索策略与深度有限搜索策略最大的不同是深度有限搜索策略属于图搜索,而回溯搜索则不是图搜索。在回溯搜索中,只保留了从初始节点到当前节点的搜索路径。而深度优先搜索,则保留了所有的已经搜索过的路径。 5、不确定性类型按性质分:随机性,模糊性,不完全性,不一致性 6、在删除策略归结的过程中删除以下子句:含有纯文字的子句;含 有永真式的子句;子句集中被别的子句类含的子句。

7、图:指由节点和有向边组成的网络。按连接同一节点的各边的逻辑关系又可分为或图和与或图。

8、合一算法:求非空有限具有相同谓词名的原子公式集的最一般合一(MGU)。 9、人工智能的远期目标是制造智能机器,近期目标是实现机器智能。 10、什么是产生式?产生式规则的语义是什么?

产生式规则基本形式:P→Q 或者 IF P THEN Q P 是产生式的前提(前件),用于指出该产生式是否可用的条件 Q 是一组结论或操作(后件),用于指出当前提 P 所指示的条件满足时,应该得出的结论或应该执行的操作

产生式规则的语义:如果前提P被满足,则可推出结论 Q 或执行 Q 所规定的操作

11、谓词公式G通过8个步骤所得的子句集合S,称为G的子句集。请写出这些步骤:1)消去蕴含式和等价式→,<-> ;2)缩小否定词的作用范围,直到其作用于原子公式: ;3)适当改名,使量词间不含同名指导变元和约束变元。 ;4.)消去存在量词(形成Skolem标准型) ;5)消去所有全称量词 ;6) 化成合取范式;7). 适当改名,使子句间无同名变元;8). 消去合取词∧,用逗号代替,以子句为元素组成一个集合S

12、人工智能的基本技术包括搜索技术 推理技术 知识表示和知识库技术、归纳技术、联、想技术

13、产生式系统有三部分组成综合数据库,知识库和推理机。其中推理可分为正向推理和反向推理。

14、在归结原理中,几种常见的归结策略并且具有完备性的是删除策略 支持集策略 线性归结策略、输入归结策略、单元归结策略 15、归结法中,可以通过修改证明树的方法得到问题的解答

16、开发专家系统所要解决的基本问题有三个,那就是知识的获取、知识的表示和知识的运用,在语义网络表示知识时,所使用的推理方法有AKO 和ISA 。

17、α-β剪枝的条件是:α剪枝:若任一极小值层节点的β值小于或等于它任一先辈极大值节点的α值,即α(先辈层)≥β(后继层),则可中止该极小值层中这个MIN节点以下的搜索过程。这个MIN节点最终的倒推值就确定为这个β值。

β剪枝:若任一极大值层节点的α值大于或等于它任一先辈极小值层节点的β值,即α(后继层)≥β(先辈层),则可以中止该极大值层中这个MAX节点以下的搜索过程。这个MAX节点的最终倒推值就确定为这个α值。

18、知识表示的方法主要有逻辑表示法(谓词表示法) 框架 产生式和语义网络,类和对象,模糊集合,因果网络,脚本,过程等 19、知识的分类:(1)就形式而言:显示和隐式。显示知识是指可用语言文字符号形象声音及其他人能直接识别和处理的形式,明确的在其载体上表示出来的知识。隐式知识只可用神经网络存储和表示(2)就严密性和可靠性而言:理论知识和经验知识(3)就确定性而言:确定性知识和不确定知识(4)就确切性而言:确切描述的知识和非确切描述的知识。

20、知识表示是指面向计算机的知识描述或表达形式和方法。具体的讲就是要用某种约定的形式结构来描述知识,而且这种形式结构还要能够转换为机器的内部形式,使的计算机能方便的存储、处理和应用。------知识表示是建立专家系统级各种知识系统的重要环节,也是知识工程的一个重要方面。 21、基于谓词逻辑的推理主要是演绎方式的推理;基于框架、语义网络和对象知识表示的推理是一种称为继承的推理。

22、机器学习:主要指机器对自身行为的修正或性能的改善和机器对客观规律的发现。(让计算机模拟人的学习行为,或者说让计算机也具有学习的能力) 23、机器学习的流程:(1)对于输入的信息,系统根据目标和经验做出决策予以响应,即执行相应的动作;(2)对目标的实现或任务的完成情况进行评估;(3)将本次的输入、响应和评价作为经验予以存储记录。可以看出,第一次决策时系统中还无任何经验,但从第二此决策开始,经验便开始积累。

例结论完全相同,而得到所有的叶子节点为止。这样一棵决策树就被生成。 28、神经网络分为四大类:分层前向网络、反馈前向网络、互联前向网络、广泛互联网络。

29、网络学习一般是利用一组称为样本的数据,作为网络的输入(和输出),网络按照一定的规则自动调节神经元之间的连接强度或拓扑结构,当网络的实际输出满足期望的要求,或者趋于稳定是,则认为学习成功。

30、神经网络学习的规则是权值修正规则:相关规则和误差修正规则。 31、神经网络学习方法分类:(外部影响)有导师学习,强化学习,无导师学习;(内部变化)权值修正,拓扑变化,权值与拓扑修正;(算法性质)确定性学习,随机性学习;(输入要求)基于相似性学习,基于命令学习。

32、专家系统:应用于某一专门领域,拥有该领域相当数量的专家级知识,能模拟专家的思维,能达到专家级水平,像专家一样解决困难、复杂的实际问题的计算机(软件)系统。

33、专家系统的基本要素:专家拥有丰富的专业知识和实践经验或者说拥有丰富的理论知识和经验知识,特别是经验知识。

34、专家系统与一般的软件系统开发无异,其开发过程同样要遵循软件工程的步骤和原则,即也要进行系统分析、系统设计等几个阶段的工作。

但由于它是专家系统,而不是一般的软件系统,所以,又有其独特的地方,主要包括以下几个步骤:

系统总体分析与设计;知识获取;知识表示与知识描述语言设计;知识库设计、知识库管理系统设计;推理机与解释模块设计;总控与界面设计;编程与调试;测试与评价;运行与维护。可以看出它有如下特点:知识获取和知识表示设计是一切工作的起点;知识表示与知识描述语言确定后,其他设计可同时进行;

35、对涉及人工智能的一些问题的认识:首先人工智能把人脑更有效的扩大和延伸是人类智能扩大的延伸,人工智能的应用十分广泛:机器翻译、智能控制、模式识别、机器博弈等,运用智能技术解决很多的实际问题从而使现有的计算机更有效更灵活成为人类智能化信息处理的工具。人工智能用计算机模拟人的思维活动包含理解能力、学习能力、推理能力,主要是脑功能的结构模拟和功能模拟。然而人类不能赋予机器同等的情感,无法确保责任问题,此外生物物种灭绝新型细菌的出现,人类的未来难以预料

37、能解节点定义如下: ①(终节点)是能解节点; ②若非终节点有("或")子节点时,当且仅当其子节点至少有一能解,该非终节点才能解; ③若非终节点有("与")子节点时,当且仅当其子节点均能解,该非终节点才能解。

18、局部图的耗散值定义如下: ①若n是局部图的一个叶节点,则k(n,N)=(h(n)),其中(h(n))表示节点n到目标节点集的最佳解图耗散值的估计; ②若n由一个外向连接符指向后继节点{n1,…,ni},并设该连接符的耗散值为Cn,则k(n,N)= (Cn+ k(n1,N) + … + k(ni,N))。 19、耗散值最小的解图称为(最佳)解图

20、AO*算法是一种用于对(与或图)进行搜索的启发式搜索算法,该算法对目前找到的局部图进行评价,选择(耗散值最小)的局部图进行优先搜索,直到找到一个解图为止。当启发函数h满足(单调)条件时,在问题有解的情况下,AO*算法一定能找到最佳解图结束。 21、所谓“图灵实验”,是为了判断一台机器是否具备智能的实验。实验由三个封闭的房间组成,分别放置主持人、参与人和机器。主持人向参与人和机器提问,通过提问的结果来判断谁是人,谁是机器。如果主持人无法判断谁是人,谁是机器,则这台机器具备智能,即所谓的“智能机器”。

22/深度优先方法的特点是什么?属于图搜索;是一个通用的搜索方法;如果深度限制不合适,有可能找不到问题的解;不能保证找到最优解。

23/什么是置换?置换是可交换的吗?通常用有序对的集合s={t1/v1,t2/v2,?,tn/vn}来表示任一置换,置换集的元素ti/vi的含义是表达式中的变量vi处处以项ti来替换,用s对表达式E作置换后的例简记为Es。 一般来说,置换是不可交换的,即两个置换合成的结果与置换使用的次序有关。

 

第二篇:人工智能十大算法总结

5-1 简述机器学习十大算法的每个算法的核心思想、工作原理、适用

情况及优缺点等。

1)C4.5 算法:

ID3 算法是以信息论为基础,以信息熵和信息增益度为衡量标准,从而实现对数据的归纳分类。ID3 算法计算每个属性的信息增益,并选取具有最高增益的属性作为给定的测试属性。C4.5 算法核心思想是ID3 算法,是ID3 算法的改进,改进方面有:

1)用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足;

2)在树构造过程中进行剪枝

3)能处理非离散的数据

4)能处理不完整的数据

C4.5 算法优点:产生的分类规则易于理解,准确率较高。

缺点:

1)在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。

2)C4.5 只适合于能够驻留于内存的数据集,当训练集大得无法在内存容纳时程序无法运行。

2)K means 算法:

是一个简单的聚类算法,把n 的对象根据他们的属性分为k 个分割,k < n。算法的核心就是要优化失真函数J,使其收敛到局部最小值但不是全局最小值。

其中N 为样本数,K 是簇数,rnk b 表示n 属于第k 个簇,uk 是第k 个中心点的值。

然后求出最优的uk

优点:算法速度很快

缺点是,分组的数目k 是一个输入参数,不合适的k 可能返回较差的结果。

3)朴素贝叶斯算法:

朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。算法的基础是概率问题,分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。朴素贝叶斯假设是约束

性很强的假设,假设特征条件独立,

但朴素贝叶斯算法简单,快速,具有较小的出错率。在朴素贝叶斯的应用中,主要研究了电子邮件过滤以及文本分类研究。

4)K 最近邻分类算法(KNN)

分类思想比较简单,从训练样本中找出K个与其最相近的样本,然后看这k个样本中哪个类别的样本多,则待判定的值(或说抽样)就属于这个类别。 缺点:

1)K 值需要预先设定,而不能自适应

2)当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K 个邻居中大容量类的样本占多数。 该算法适用于对样本容量比较大的类域进行自动分类。

5)EM 最大期望算法

EM 算法是基于模型的聚类方法,是在概率模型中寻找参数最大似然估计的算法,其中概率模型依赖于无法观测的隐藏变量。E步估计隐含变量,M步估计其他参数,交替将极值推向最大。EM 算法比K-means 算法计算复杂,收敛也较慢,不适于大规模数据集和高维数据,但比K-means 算法计算结果稳定、准确。EM 经常用在机器学习和计算机视觉的数据集聚(Data Clustering)领域。

6)PageRank 算法

人工智能十大算法总结

人工智能十大算法总结

是google 的页面排序算法,是基于从许多优质的网页链接过来的网页,必定还是优质网页的回归关系,来判定所有网页的重要性。(也就是说,一个人有着越多牛X 朋友的人,他是牛X 的概率就越大。)

优点:完全独立于查询,只依赖于网页链接结构,可以离线计算。

缺点:1)PageRank 算法忽略了网页搜索的时效性。

2)旧网页排序很高,存在时间长,积累了大量的in-links,拥有最新资讯的新网页排名却很低,因为它们几乎没有in-links。

7)AdaBoost

Adaboost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。 整个过程如下所示:

1. 先通过对N 个训练样本的学习得到第一个弱分类器;

2. 将分错的样本和其他的新数据一起构成一个新的N 个的训练样本,通过对这个样本的学习得到第二个弱分类器;

3. 将和都分错了的样本加上其他的新样本构成另一个新的N个的训练样本,通过对这个样本的学习得到第三个弱分类器;

4. 如此反复,最终得到经过提升的强分类器。

目前AdaBoost 算法广泛的应用于人脸检测、目标识别等领域。

8)Apriori 算法

Apriori 算法是一种挖掘关联规则的算法,用于挖掘其内含的、未知的却又实际存在的数据关系,其核心是基于两阶段频集思想的递推算法。 Apriori 算法分为两个阶段:1)寻找频繁项集

2)由频繁项集找关联规则

算法缺点:

1) 在每一步产生侯选项目集时循环产生的组合过多,没有排除不应该参与组合的元素;

2) 每次计算项集的支持度时,都对数据库中的全部记录进行了一遍扫描比较,需要很大的I/O 负载。

9)SVM 支持向量机

支持向量机是一种基于分类边界的方法。其基本原理是(以二维数据为例):如果训练数据分布在二维平面上的点,它们按照其分类聚集在不同的区域。基于分类边界的分类算法的目标是,通过训练,找到这些分类之间的边界(直线的――称为线性划分,曲线的――称

为非线性划分)。对于多维数据(如N 维),可以将它们视为N 维空间中的点,而分类边界就是N 维空间中的面,称为超面(超面比N维空间少一维)。线性分类器使用超平面类型的边界,非线性分类器使用超曲面。

支持向量机的原理是将低维空间的点映射到高维空间,使它们成为线性可分,再使用线性划分的原理来判断分类边界。在高维空间中是一种线性划分,而在原有的数据空间中,是一种非线性划分。SVM 在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。

10)CART 分类与回归树

是一种决策树分类方法,采用基于最小距离的基尼指数估计函数,用来决定由该子数据集生成的决策树的拓展形。如果目标变量是标称的,称为分类树;如果目标变量是连续的,称为回归树。分类树是使用树结构算法将数据分成离散类的方法。

优点

1)非常灵活,可以允许有部分错分成本,还可指定先验概率分布,可使用自动的成本复杂性剪枝来得到归纳性更强的树。

2)在面对诸如存在缺失值、变量数多等问题时CART 显得非常稳健。

相关推荐