人工智能原理词汇之总结
(2008-11-13 18:34:40)
标签:
杂谈 |
1. 人工智能
从狭义的概念上来讲,人工智能是计算机科学中涉及研究,设计和应用智能机器的一个分支,是智能计算机系统的研究。从广义上来讲,人工智能是指人类智能行为规律、智能理论方面的研究。
2. 图灵试验
当一个人与一个封闭房间里的人或者机器交谈,如果他不能分辨自己问题的回答是计算机还是人给出,则称该机器是具有智能的。以往该试验几乎是衡量机器人工智能的为已标准,但是从九十年代开始,现代人工智能领域的科学家开始对此试验提出异议。反对封闭式的,机器完全自主的智能。提出与外界交流的,人机交互的智能。
3. 归结原理
又称为消解原理。该原理是一种基于逻辑的、采用反证法的推理方法。由于其理论上的完备性,归结原理成为机器定理证明的主要方法。
4. 命题
描述事实、事物的状态、关系等性质的文字串,取值为真或假(表示是否成立)的句子。
5. 范式
范式是公式的标准形式,公式往往需要变换为同它等价的范式,以便对它们作一般性的处理。
6. 前束范式
A是一个前束范式,如果A中的一切量词都位于该公式的最左边(不含否定词),且这些量词的辖域都延伸到公式的末端。
7. Skolem标准形
前束范式中消去所有的存在量词,则称这种形式的谓词公式为Skolem标准形。
8. 文字
不含任何连接词的谓词公式。
9. 子句
一些文字的析取(谓词的和)。
10. 子句集
所有子句的集合。
11. 一阶逻辑
谓词中不再含有谓词的逻辑关系式。
12. 个体词
表示主语的词。
13. 谓词
刻画个体性质或个体之间关系的词。
14. 量词
表示数量的词。
15. 置换
可以简单的理解为是在一个谓词公式中用置换项去置换变量。置换是形如{t1/x1, t2/x2, …, tn/xn}的有限集合。其中,x1, x2, …, xn是互不相同的变量,t1, t2, …, tn是不同于xi的项(常量、变量、函数);ti/xi表示用ti置换xi,并且要求ti与xi不能相同,而且xi不能循环地出现在另一个ti中。
16. 归类
设有两个子句C和D,若有置换σ使得Cσ D成立,则称子句C把子句D归类。
17. 支撑集
设有不可满足子句集S的子集T,如果S-T是可满足的,则T是支持集。
18. 公式G永真
对于G的所有解释,G都为真。
19. 公式G永假(矛盾)
没有一个解释使G为真。
20. 可满足
若A至少有一个成真赋值,则称A为可满足的。
21. 不可满足
若A一个成真赋值都没有,则称A为不可满足的。
22. 完全语义树
S的语义树是完全的,如果对该语义树的所有叶结点N来说,I(N)包含了S的原子集A={A1,A2,…}中的所有元素Ai或~Ai,i=1 … n。
23. 失败结点
当(由上)延伸到点N时,I(N)已表明了S的某子句的某个基例为假。但N以前尚不能判断这事实。就称N为失败结点。
24. 封闭语义树
如果S的完全语义树的每个分枝上都有一个失败结点,就称它是一棵封闭语义树。
25. 不确定性推理
建立在不确定性知识和证据的基础上的推理。
26. Bayes定理
设事件A1,A2 ,A3 ,…,An中任意两个事件都不相容,则对任何事件B有下式成立:
上式称为Bayes公式。
27. 全概率公式
这是Bayes定理的另一种形式。
28. 贝叶斯网
由一个有向无环图(DAG)及描述顶点之间的概率表组成。其中每个顶点对应一个随机变量。这个图表达了分布的一系列有条件独立属性:在给定了父节点的状态后,每个变量与它在图中的非继承节点在概率上是独立的。该图抓住了概率分布的定性结构,并被开发来做高效推理和决策。
29. 知识
很难给出明确的定义,只能从不同侧面加以理解,不同的人有不同的理解:
Feigenbaum:知识是经过消减、塑造、解释和转换的信息。
Bernstein:知识是由特定领域的描述、关系和过程组成的。
Hayes-roth:知识是事实、信念和启发式规则。
从知识库的观点看,知识是某领域中所涉及的各有关方面的一种符号表示。
30. 表示观
对于"什么是表示"这一基本问题的不同理解和采用的方法论。
31. 计算效率
不同于以前的多用计算复杂性来衡量一种智能系统的方法,而采用计算困难度来衡量。
32. 逻辑表示法
逻辑是一种重要的知识表示方法。使用逻辑法表示知识,须将以自然语言描述的知识,通过引入谓词、函数加以形式描述,获得有关的逻辑公式,进而以机器内码表示。
33. 知识库
由规则库和数据库组成。规则库是产生式规则的集合,数据库存放输入事实、外部数据库输入的事实以及中间结果和最后结果。
34. 推理机
是一个程序,控制协同规则库与数据库的运行,包含了推理方式和控制策略。推理方式有正向推理、反向推理和双向推理。
35. 产生式系统
把一组产生式放在一起,让它们互相配合,协同工作,一个产生式生成的结论可以供另一个产生式作为前提使用,以这种方式求得问题的解决,这样的系统就叫做产生式系统。
36. 与或图
各个事实之间的逻辑关系图。
37. 正向推理
是从已知事实出发,通过规则库求得结论。或称数据驱动方式为Bottom-up。
38. 反向推理
从目标出发,反向使用规则,求得已知事实,或称目标驱动方式也称自顶向下(Top-down)。
39. 双向推理
既自顶向下(Top-down)又自底向上(bottom-down)直至之间环节两个方向底结果相符便成功结束。显然,这种推理方式的推理网络较小,效率也较高。
40. 语义网络
是一种用实体及其语义关系来表达知识的有向图。结点:代表实体,表示各种事物、概念、情况、属性、状态、事件、动作等;弧:代表语义关系,表示它所连接的两个实体之间的语义联系。
41. 框架
是由若干结点和关系(统称为槽)构成的网络,是语义网络一般化的形式,与后者没有本质的差别。框架是表示某一类情景的结构化的一种数据结构,框架的最顶层是固定的一类事物,基于概念的抽象程度表现出自上而下的分层结构。框架由框架名和一些槽组成,每个槽有槽值,槽值就代表信息。
42. 对象
是由一组数据和与该组数据相关的操作构成的实体。在面向对象表示中类和类继承是一组重要概念。类由一组变量和一组操作组成,它描述了一组具有相同属性和操作的对象。每一个对象都属于某一类,每个对象都可由相关的类生成,换言之,对象是类的实例。一个类可以通过继承拥有另一类的全部变量和操作,继承是面向对象表示法的主要推理形式。同时,由于一个事物的描述都集中在一个类中,又体现了类的封装性。继承和封装是面向对象的两大特点。
43. 学习
是人类具有的一种重要智能行为。按照人工智能大师西蒙(Simon,1983)的观点,学习就是系统在不断重复的工作中对本身能力的增强或者改进,使得系统在下一次执行同样任务或相类似的任务时,会比现在做得更好或效率更高。西蒙对学习给出的定义本身,就说明了学习的重要作用。
44. 符号处理技术
基于符号演算的知识推理和知识学习技术。
45. 信息水平
信息的一般性程度,也就是适用范围的广泛性。这里的一般性程度是相对执行环节的要求而言的。高水平信息比较抽象,适用于更广泛的问题。该种信息需要具体化才能够成为知识;低水平信息比较具体,是特殊的实例,只适用于个别的问题,需要归纳才能够成为知识。
46. 信息的质量
信息的正确性、是否是适当的选择和合理的组织。
47. 记忆学习
也称死记硬背学习或机械学习。这种学习方法不要求系统具有对复杂问题求解的能力,也就是没有推理技能,系统的学习方法就是直接记录问题有关的信息,然后检索并利用这些存储的信息来解决问题。
48. 传授学习
即通过对计算机指点教授进行的学习方法。系统中已有一些通过某种方式得到的知识,传授学习就是通过人机对话,把用户一般性意见或建议具体化,或者协助用户补充和修改原有的知识库。系统把这些建议看成为要达到的目标,并通过规划求解出可直接执行的过程,因此系统要求具有推理的能力。学习使得系统性能有所改变(增强),或者是具有了新的能力。
49. 演绎学习
是基于演绎推理的一种学习。演绎推理是一种保真变换,即若前提为真时推出的结论也为真。在演绎学习中,学习系统由给定的知识进行演绎的保真推理,并存储有用的结论
50. 类比学习
就是寻找和利用事物间的可类比的关系,从已有的知识推导出未知的知识。
51. 实例学习
也称示例学习,是目前机器学习方法中最成熟的方法之一。它是一种归纳学习,是从若干实例(包括正例和反例)归纳出一般概念或规则的学习方法。
52. 发现学习
则是系统直接从环境中归纳总结出规律性知识的一种学习方法。即发现学习是指机器获取知识无须外部拥有该知识的实体的帮助,甚至蕴含在客观规律中的这类知识至今尚未被人所知,因此发现学习也是一种归纳学习,而且是一种高级的学习过程。它要求系统具有复杂的问题求解能力。
53. 变型空间法
是一种数据驱动的基于实例学习的空间搜索方法。这种方法对规则和实例都采用同一种表示形式。初始的假设规则集H包括满足第一个示教例子和全部规则。在得到下一个示教例子时,对集合H进行一般化或特殊化处理,最后使集合H收敛为仅含要求的规则。
54. 单个概念的学习
是提供给系统一个概念的若干正例和若干反例,系统由此构成规则空间,并可得到在这个规则空间中的一个概念。这个概念应包含所有的正例,但不包含任何反例。
55. 神经元
神经细胞,高级动物脑组织的基本单元。
56. 神经网络
神经网络(Neural Network,NN)指由大量神经元互连而成的网络。
57. 人工神经元网络
采用物理可实现的模型来模仿人脑神经细胞的结构和功能的系统。
58. 神经网络技术
主要各种人工神经网络模型及其学习算法的研究与应用技术,这一领域是当前人工智能研究的一个十分活跃,且很有前途的分支领域。
59. 前馈型网络
信号由输入层到输出层单向传输。每层的神经元仅与前层的神经元相连接,只接受前层传输来的信息。
60. 反馈型全互联网络
反馈型全互联网络是所有神经元之间都相互联接的网络,如Hopfiled和Boltgmann网络都是这种类型。
61. 网络规模
主要是指神经网络的结构参数,如多层网络层的数目,各层结点数。
62. 感知器
是由美国学者F. Rosenblatt于1957年提出的,它是一个由最简单的线性阈值元件组成的单层(或多层)神经元的神经网络。
63. 神经网络学习
神经网络的学习过程就是神经网络参数的设定过程。一个神经元网络结构确定之后,需要对一系列参数(权重、阈值等)进行有效的设定。这个过程叫做学习或训练过程,此时的方法叫学习算法。
64. BP学习算法
是一个依据梯度下降理论的很有效的算法,许多问题都可由它来解决。BP算法将一组样本的分类问题转变为一个系统非线性优化问题,采用优化中最普遍的梯度下降法,用迭代运算求解神经元之间的联结权值,加入隐层节点使优化问题的可调参数数目增加,从而可得到更精确的解。
65. 反馈网络
所有节点(神经元)都是具有同等的地位,没有层次差别。它们之间都可相互连接,同时也可以向自己反馈信号。所以反馈网络可以用一个完美的图来表示。
66. Hopfield神经网络
各个神经元之间是全互联的,即各个神经元之间是相互、双向连结的。这种连结方式使得网络中每个神经元的输出均反馈到同一层的其它神经元的输入上。这样网络如果设置得当,在没有外部输入的情况下也能进入稳定状态。
67. 模式识别
是神经网络最有应用前景的领域之一。模式识别是六十年代兴起的新兴科学分支,其主要研究内容是用计算机模拟生物、人的感知(感觉),对模式信息,如图像、文字、语音等,进行识别和分类。模式识别是个跨领域的科学研究分支,不仅仅涉及计算机科学的信息处理技术,而且涉及数学、心理学及人类的感觉与思维规律的探索。
68. 自然语言
是指人类语言集团的本族语,如汉语、英语、日语等,以及人类用与交流的非发声语言,如手语、旗语等。自然语言是相对于人造语言而言的。人造语言是指世界语或计算机的各种程序设计语言。
69. 自然语言理解
就是如何让计算机能正确处理人类语言,并据此作出人们期待的各种正确响应。自然语言理解的研究分为书面语理解和口语理解,相对而言,书面语比较规范,比起口语来说比较容易用机器处理。由于语言是思想的直接实现,社会的一切进步乃至生存都离不开语言(文字或非文字形式),这使得语言学几乎与所有的学科都存在着密切的联系。因此,自然语言理解的研究不但要运用语言学中的词汇、语法、句法、语用和语义学知识,而且还要涉及到大量的客观世界的知识以及与其相关学科的知识。
70. 句法分析
是对句子和短语的结构进行分析,找出词、短语等的相互关系以及各自在句子中的作用等。
71. 语法分析
是将单词之间的线性次序变换成一个显示单词如何与其它单词相关联的结构。确定语句是否合乎语法。
72. 语义分析
通过分析找出词义、结构意义及其结合意义,从而确定语言所表达的真正(实际)含义或概念。
73. 语用分析
研究语言所在的外界环境对语言使用所产生的影响。描述语言的环境知识、语言与语言使用者在某个给定语言环境中的关系。为确定真正含义,对表达的结构重新加以解释。
74. 短语结构语法
短语结构语法G可以用如下的四元组来定义:
G = (T,N,S,P)
其中,T是终结符的集合,终结符是指被定义的那个语言的词或符号;N是非终结结点的集合,这些符号不能出现在最终生成的句子中,是专门用来描述语法的。显然,T和N的并构成了符号集V,而且T和N不相交。
V=T∪N
T∩N=φ
S是起始符,它是集合N中的一个成员。
P是一个产生式规则集。每条产生式具有如下的形式:
a→b
其中:a∈V+,b∈V*,且a≠b
V*: V中的符号所构成的全部字符串的集合,包括空字符。
V+: V*中除空字符之外的所有字符串的集合。
一部短语结构语法中,基本运算就是一个符号串重写的过程。
75. 句法分析器
根据一部特定的语法来确定一个句子的推导,就称它为一个句法分析器(parser)。
76. 乔姆斯基体系
对短语结构语法加一些条件,进行约束即可产生出乔姆斯基四种类型的语法。
·正则语法(regular grammars):3型语法;
·上下文无关语法(context-free grammars):2型语法;
·上下文有关语法(context-sensitive grammars):1型语法;
·无约束短语结构语法:0型语法。型号越高,所受约束就越多,生成能力越弱,因此能生成的语言集也就越小。
77. 语言串理论
特定的句法范畴(名词、时态动词等)、一组基本串和规则来把某些基本串结合成为句串。最简单的句子仅有一个名为中心串的基本串组成。通过对句子中某基本串的一个元素左边或右边插一个附加串,任何串都可以形成一个更复杂的句串。
78. 有限状态网络
状态(节点)和一组弧(状态间的连接)。包括一个起始状态。
79. 递归转移网络
对有限转移网络的一种扩展。每一条弧的标注不仅可以是一个终结符(词或词类),而且可以是一个用来指明另一个网络名字的非终结符。
80. 扩充转移网络
在以下三方面对递归转移网络作了扩充:
· 添置了一组寄存器(registers)用来存储分析过程中的得到的中间结果(如局部句法数)和有关信息(如名词短语的人称和数,某些成分的语义特征等)
· 每条弧上除了用句法范畴(如词类和短语标记)来标注以外,可以附加任意的测试(tests),只有当弧上的这种测试成功之后才能通过这条弧
· 每条弧上还可以附加某些动作(actions),当通过一条弧时,这些动作主要用来设置或修改寄存器的内容
81. 语料库
大量的能代表某一领域的语言现象的真实的语言材料的集合。
82. 词性标注
大多数自然语言中,一个单词有可能有多种词性,词性标注就是将句子中的各个词汇标注上在该句中的正确词性。
83. 马尔可夫过程
马尔可夫过程是一个随机过程{x(t):t∈T},它具备这样的性质,即已知t时刻过程所处的状态xt = x(t),在t时刻以后过程将要到达的状态与t时刻以前过程所处的状态无关,这个性质也称为过程的无后效性或马尔可夫性。
84. 动态规划
动态规划算法通常用于求解具有某种最优性质的问题。在这类问题中,可能会有许多可行解。每一个解都对应于一个值,我们希望找到具有最优值的解。动态规划算法的基本思想是将待求解问题分解成若干个子问题,先求解子问题,然后从这些子问题的解得到原问题的解。
85. n-gram模型
语言模型主要分为规则模型和统计模型两种。统计语言模型是用概率统计的方法来揭示语言单位内在的统计规律,其中n-gram模型简单有效,被广泛使用。n-gram模型基于这样一种假设,第n个词的出现只与前面n-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计n个词同时出现的次数得到。常用的是二元的bigram和三元的trigram。
86. 智能体
在某个环境中由传感器(sensors)感知外界,通过作效应器(effectors)对外界实施动作。
87. 正确动作
就是智能体的动作是成功的。
88. 全能智能体
全能智能体是要知道动作的效果,并根据效果进行动作。但实际上全能是不可能的。
89. 感知列
全部感知过程的记录称为感知列(percept sequence)。
90. 理想智能体
基于对外界的感知和自身拥有的知识,理想智能体对所有可能感知到的系列应该做的是尽量使得成功度量尺度达到最大化。
91. 理想映射(ideal mapping)
对于任何给定的感知序列都为理想智能体设计一个合理的反应序列。这个从感知序列到反应的映射成为理想映射。
92. 智能体自治性
智能体自治系统的行为是由它自身的经验所决定的。