关于人工智能的探讨(续三) (300分)

  • 主题发起人 creation-zy
  • 开始时间
to DarwinZhang:
1、
>>人脑由于思维速度、短期记忆容量太小的限制,效率是非常低的,
>> 而电脑在这方面反而很有希望缩小和人类的差距"
这一点我同意
2、
>>人可以轻易的将大量人脸中的一个猴脸快速分辨
>>出来,现在的图形处理技术对此却无能为力。
我拿不出证据来,但我觉得这不是计算能力的问题,而是软件对图形分析能力的问题。
即使电脑在这方面赶不上人脑,也应该比现在做得更好。其实,人脑获取的图形信息是
模糊不清的(有盲点和血管影,而且除了中间那一点区域,其它区域的视力也不好)。
远不如我们的照片清楚,但通过人脑的分析,就可以得出清晰的结果。
你写给我的1、2我放在一起说:
其实,这两条是矛盾的,人类的信息大约90%以上来自视力,这个结论我觉得值得
怀疑。我知道这是专家说的。但他的论据是从脑电图来的。你说这句话恰好是在为我的
观点说话。:)
我觉得,误会的关键是你对脑电图工作的机理不清楚。如果只有一个狭小的区域的脑
细胞活动的话,好像不会造成整个大脑脑电的大幅度改变。不过,我承认,视觉激活的脑
区中大多数都与视觉处理本身无关。大脑是协调工作的。视觉的确更容易激活别的脑区。
我说的不容易"走神",就是这个意思。所以,我说得也可能是错误的,我觉得这些东西就
像是猜谜,不做一些试验,谁也不知道到底应该怎么样。这就是我想先搭建一个试验平台
的原因。
3.我们的基本观点相同,但你有一段话说得很对:
>>比如:现在世界上有很多实验室也在做相关的研究,甚至获得国家的资金资助。我们
>>做这样一个模拟系统到底应该有什么样的自身特点呢?
由于人脑以及环境的复杂性,即使模拟一个简单的环境,其负担也不是我们能承受得起的。
所以,我们不能从头模拟。
我们都知道,通过电刺激来刺激不同的脑区,会使人产生不同的幻觉。为什么呢?
我们刺激大脑皮层的时候,都是一些简单的电信号,为什么会产生复杂的感觉信息呢?
这是我联想到,其实信号传到皮层后,通过低级中枢的处理,都变成了一些抽象的信息。
这些信息不是对外部环境的全息地反映(数字的),而是一些抽象的符号信息。想一想
吧,如果我们随便写一些数据,电脑绝对不会把这些资料解读成有意义的东西,因为我们
存储或解读的都是数字化的信息,就像你说的,0.8永远不是一个模糊的概念。我想模
拟的,就是这些大脑皮层接收到的信息。这样,模拟环境的复杂程度就大大简化了。但也
是一场赌博,如果我的猜测错误,很可能下了很大的功夫,却没有成果。但再想一下,研
究AI,本身就是一场赌博,谁也没有成功地把握!
因为风险太高,所以,我希望在开始前准备得更充分一些。等关键问题想通了,再下
手做。我也知道穷究大脑的的运行方式是不可能的,而且我搭建平台的目的就是想研究大
脑的运行方式,所以,在这个阶段,我并不准备穷究,只是想找到一种能适应存储需要的
存储方式。其他的部分,我并不准备穷究。
4、还是DarwinZhang兄看得明白,我还是有点着相了。我确实不能说服我的儿子,虽然他
还识不了几个字,连20以内的加减法都算不好![:D]

 
to DarwinZhang兄、wfzha兄:
我的看法是:我们作为业余爱好者,相比专业人员来说,软硬件差距极大,因此,那些需
要复杂硬件以及专门算法实现的一些诸如视觉信息处理等等的功能,是几乎不可能实现的。
只能将注意力集中在一些相对抽象的问题上(因为有可能用不是那么复杂的算法就可以实现
它们)。关于“实验室”、“国家资金”等等,我认为这些东西不是必然因素——试问亚里
士多德有什么实验室和国家资金?我认为,与此相反,方向以及思路才是最重要的。

不知道DarwinZhang兄有没有想过“准备工作”应该包括哪些方面的东西,我大致想了一
下,下面几个问题应该算是基础问题了:
1.如何将刺激和概念联系起来
我觉得这是智能系统相对于一般意义上的应激系统的显著差别——我们可以用神经网络构
造一个瓢虫或者蚂蚁的“大脑”,并且这个“大脑”的表现和真正的瓢虫或蚂蚁相比可能并
不逊色——但是,有一个很大的问题——它只知道如何对刺激产生反应,而对自己正在做什
么却没有任何概念(注意,此处的“概念”不需要语言的支撑)。因此,这个神经网络只能
算是一个“应激系统”,而不是真正意义上的“智能系统”(至少我是不会满足于这样的系
统的)。
举一个更加直观的例子:我们通过某种方式向系统施加这样的刺激:每隔一秒向它发出一
个信号“a”。我们要解决的是,系统如何才能“意识到”刺激是连续的、不变的、等间隔
的呢?
关于这个“刺激——觉受”的过程,佛经上的描述是——外境界风鼓荡藏识心海,在原本
宁静的心海中形成“识浪”,有了“识”之后,第六识(意识)再攀缘不已,形成种种分别
之想。如果能够很好的解决这个转化的问题,我觉得机器智能就可能有飞跃了 :)
2.知识表示的问题
这是一个很根本的问题——系统无法表示的知识越多,价值就越小。虽然DarwinZhang兄
在上面谈到了一些问题,但是还是可以看出我提出的三张表具有表示绝大多数知识的潜力。
我在上面用“0.8”纯粹是为了简化(这就是推理链收缩的结果:p),如果更加严格,我们
就应该用“很可能”这个概念代替之——前提是知识库中已经存放有“很可能”这个概念的
意义。至于“不具有操作性”的弱点,我在下面会提出一个方案加以解决。
3.基于“模式”的思维/推理
就像命题逻辑的模式是匹配、递推,模糊逻辑的模式是基于概率的算术运算一样,在我们
的脑海中有很多的模式存在,而每种模式的推理过程都是可以加以描述的。我的想法是——
对于特定的模式,系统可以基于知识自动生成处理符合这类模式的问题的“代码团”(有点
类似于大脑的不同功能单元:p),它能将它可以识别的模式从知识库中抽取出来,放在相对
独立的“模式知识库”中(例如,对于模糊推理知识库,就有一个专门的“隶属度”字段存
在)。只要系统可以进行基于模式的知识抽取,处理的效能必将大大的提高。
为了实现这个效果,知识库中的知识粒度至少要小到足以支持基于知识的模式处理单元的
代码生成(不一定是Delphi、C、Java之类的编程语言,可以是自定义的简单脚本语言)。
 
昨天和wfzha兄讨论了很久,谈得比以前更加深入了 :)
我们画了一些系统架构图: http://creationzy.fotopages.com/?entry=5364
to wfzha兄:
我在这里小节一下,请您看看有没有理解不对的地方:
您强调系统是“从无到有”逐步发展的,而我认为发展是肯定的,但“无”并不是一无所
有,而是必须有一些最基础的“原始概念”作为系统的基石(数量可达10^2量级)。
您说到“从事物已知的属性来比较两个事物,如果不相同,就可以区别二者,否则,系统
试图找出新的属性来解决这个问题,新的属性是通过感觉获得的。我们定义表示事物的类的
时候,对于每种属性,必须要有一个计算属性是否相同的方法,这牵扯到存储问题,现在没
法实现”。我的观点是:要解决这个问题,只要预先设定一些和感官直接对应的原始概念就
可以了,这样,在存储信息的时候,就可以将来自感官的信息作为属性和信息联系起来(例
如:物体A,颜色:红;味道:甜)。我认为,这些基础概念是“与生俱来的”——和感官同时
出生的,系统不可能通过别的方式(学习、归纳等)获得这些原始概念。有一点需要注意,
我们必须确保原始概念的精简,例如声音“啊”是一个基于原始概念的高级概念。您认为目
前的困难在于没有一个行之有效的方法存储信息(也就是进行知识表示),而我认为从刺激
到原始概念的转换是一个很大的问题。
接着是系统的架构,我们都画出了自己心目中的系统体系结构——我们都要求自己的架构
能够产生“意识”,但是,很明显,我们看问题的角度很不相同。我倾向于解释系统的基本
动力以及知识环境的完备,而您倾向于由逻辑层、控制层、感情/感觉层这三个功能层次的
相互作用产生意识的机制。不过,有一点我们的观点是比较一致的——能力的PASS模型是一
个很好的信息处理模型。

就写这么多吧:p
我9.3-9.10要出游,估计没有什么上网的机会。希望大家能够多多发表自己的看法:)
 
以前在学校的时候学了点人工智能,可是感觉一直没有用上的时候,还有那个什么ploy(可能拼错了)语言从来都没用他编过什么东东
 
to creation-zy
1、
>> 您强调系统是“从无到有”逐步发展的,而我认为发展是肯定的,但“无”并不是
>>一所有,而是必须有一些最基础的“原始概念”作为系统的基石(数量可达10^2
>>级)。
这一点确实不同,我认为有的是本能,人生下来会做的东西,并不一定就理解,只是一
种本能的反应而以。
2、关于信息处理的方式:这个问题我有了新的突破,我现在可以用一种方式处理大脑所能感受的所有信
息。这个问题从逻辑上已经解决了。技术上,我觉得是有可能解决的。
至于你说的基础概念问题,我现在不敢肯定一个也不需要,但直觉上是不需要的。虽然
从婴儿的表现上来看,好像他懂得一些概念。但这些都是本能。不是真的懂得。可以我无
法证明。
3、关于系统架构的问题,我觉得还是请creation-zy兄和DarwinZhang兄先看看我的笔记:
http://www.delphibbs.com/keylife/iblog_show.asp?xid=2310
等大家有了基本统一的认识,在讨论吧!我现在觉得能力的PASS模型忽略了一些关键性的
东西。我现在有更好的方案。
 
:)..
听..
 
热烈欢迎mypine兄和Haha...兄的加盟! :)

我提出的知识库结构(基于A、B、C三张表)有能力在原始概念的基础上表示任意复杂的知识。现在看来,如
何扩展不是问题,问题的关键在于整个大厦的根基——如何让智能程序真正“理解”这些原始概念。我以前曾经
说过,“理解”就是信息关联的过程,与书中提到的“当我们用已知的信息去解释新的或输入的信息时,编码就
发生了”的观点非常接近。对于高级概念、派生概念来说,的确是只要进行关联(编码)就够了,但是这些原始
概念怎么办?——它们已经是最底层的概念了,即不可能找到更加底层的概念对它们进行有效的解释。比如有、
无、同、异、属于、变化、过程等等原始概念(请注意,我在此只讨论仅仅和纯“意识”有关的原始概念,至于
那些和其余感官有关的原始概念(如颜色、味道等)暂时不予考虑)。
我以为,前人的人工智能系统之所以没有真正意义上的“意识”,很大程度上是因为这些程序不知道自己正在
做什么(比如:我正在推理一个关于汽车安全性的问题、我正在考虑下一步棋应该怎么走、我已经有5次碰到死
角了、怎么这个毛病又出现了、刚才推理的时间太长了...),而只是机械的按照程序逻辑或者知识库中的规则
进行运算。
要让计算机程序拥有意识,我认为至少应该解决这几个问题:
1.有“我”这个概念(有了这个东西程序才会有欲望、才会“主动”的去思考,而不是“按计划运行”);
2.有分别各种现象、概念的能力(要能够分辨“意识”自身的状态);
3.能够根据分别的结果,依据知识库或者本能让思维继续下去;
4.有信息输入、输出、保存、检索的能力(当然:))。
呵呵,现在看来,我在帖子中提到的那11个“技术关键”都集中在了上面的3、4点上,都是细节的东西。
wfzha兄提到了为智能程序构造一个虚拟的环境用户交互,深得我心——一旦有了虚拟的、基于概念的环境(
当然程序要具有感知这个环境的能力:p),我们就可以让程序“下水”了 :)
另外,我在 http://www.delphibbs.com/delphibbs/dispq.asp?lid=1272405 开头提到的试验,是不是也可以
被纳入试验范围?
 
看了creation-zy兄的帖子,有几点想法:
1、creation-zy兄的A、B、C三张表,理论上确实有能力扩充。加上我前面说的模拟感觉的这一部分,就可以搭建一个试验平台,来检验我们对智能、意识产生的一些认识的正确性。确实,我觉得理解要在多
种感官的基础上来进行。正如creation-zy兄说的例子,如果没有对时间的感知能力,这个问题没法解
决。所以,我觉得意识的存在一定是在感官的基础上产生的。光有A、B、C不行。要在具备感知能力的
基础上实现ABC才有可能。另外,ABC的模式,与人的模式不同,能否用这个模式产生人工智能,我觉得
值得怀疑。你的ABC的模式,还有一些需要增加的部分。比如自编程的问题(还记得那些关于动作序列
化的文字吗?结合下一条来看待这个问题,可能会有帮助的)。
2、我觉得我在我的笔记( http://www.delphibbs.com/keylife/iblog_show.asp?xid=2310
)中说的那种对外界信息的处理模式,可以处理所有种类的信息。而且,它具有从
无到有产生人工智能的潜力。
我觉得有一件事情creation-zy兄的认识还是不够。就是人脑中所有的概念
都是从无到有产生的,一开始有的,只是本能。想让计算机真正有我的概念是很困难的。除非我们真的
取得了成功,否则,不可能真的让计算机有我的概念的。
大多数动物没有自我意识,但对危险一样可以规避。这是一种本能。看一下他们规避的方式就明白
了。有的时候他们的规避行为显得非常死板。即使是人,在紧急的时候,也不可能做出真正理智的动作
来。比如,人开车时,遇到危险大多数选择刹车,但很多时候,刹车并不是最好的选择。再如,每个人
都有一些习惯性的错误,一注意,就不会犯错了。但意识不到的时候,就无法控制错误行为。我觉得,人
在大多数时间,是通过本能行事的,只有个别的时候(有时是做某事的时候)才是例外。
3、关于creation-zy兄的例子,与我说的大体相同。不过,这个例子是关于内感觉的,我现在关注的,
是关于外感觉的,我觉得,比较起来,内感觉更容易一些,所以,临时没有考虑。
现在,我觉得与creation-zy兄的观点越来越接近了。关于我的用10个左右的字节表示
一个可视的篮球的例子,希望creation-zy兄能多考虑一下,看看有没有可行性。另外,
mypine兄和Haha...兄两位是谁啊?能不能介绍一下!
 
找到了几篇比较有思想的人工智能文章:
http://www.aspgreat.com/Baryon/12/essence/15880.htm
...
http://www.aspgreat.com/Baryon/12/essence/15892.htm
引用页在 http://www.aspgreat.com/Baryon/12/elist1.htm
关键词:
图灵机 有限状态机 可计算性 中国屋试验 思维 蛋白质 中止问题 神经元 计算
意向性 二进制 智能 动态结构 人工神经网络 二值变 三值 自我意识

这几天我会将自己自开贴以来的思想作一个总结,以理清思路。
 
不知道creation-zy和wfzha兄的计划现在如何了?
 
呵呵,DarwinZhang兄,好久不见啊:) 有时间的话上一上MSN,我一般都在线的:)
上个月我从箱子底翻出来一本《计算机不能做什么——人工智能的极限》,并将其发给了
wfzha兄——现在我们都在研读这本前人的总结——字字珠玑呀。
最近wfzha兄已经开始用Delphi写一个比较简单的智能系统,而我也在用Java构造一个知
识驱动的系统(我准备先搞定知识表示以及基于模式的知识处理,然后再涉及智能)。

总算发现自己的主页空间又可以访问了:D
超星格式的 《计算机不能做什么——人工智能的极限》 下载:
http://www24.brinkster.com/creationzy/ai_jixian.part01.rar
http://www24.brinkster.com/creationzy/ai_jixian.part02.rar
...
http://www24.brinkster.com/creationzy/ai_jixian.part08.rar
 
好久没见到DarwinZhang兄了
最近,我在处理直觉的时候,遇到了一些问题,不得不停下来,从新规划一番。目前,我
对直觉的模拟方法有了一点头绪,但怎么给程序提供信息数据,程序怎样形成直觉方式的
信息处理,还是有点想不通。
我最近有点忙,晚上9点以后才有空,二位老兄要是有空
的话,可以在msn上讨论一下。看看能不能碰出新的想法。
说得不清楚,我现在基本上没涉及到代码,因为我在做规划的时候,发现我对一些类似直
觉的问题处理的有些草率,甚至不能回答《计算机不能做什么——人工智能的极限》一书
提出的问题,所以,现在在研究直觉。目前刚有些头绪,但怎么纳入我原来的想法,还没
有好的思路。
 
creation-zy兄,可否将《计算机不能做什么——人工智能的极限》发给我拜读一下?
另外最近实在是功课太紧了,估计见面的机会比较少。[:(]
wfzha兄,估计我要到过年的时候才能抽出大把的时间来搞这个。其实我很想比较系统
的研究一下AI,但愿下学期可以有时间。[:)]
 
to DarwinZhang兄:
太遗憾了,看来要到明年才能和老兄您细谈了。

找到了一篇文章: 论真正的人工智能目前绝无可能实现
http://bgzc.www63.cn4e.com/Article/ArticleShow.asp?ArticleID=82
关键词: 心理学 生理学 计算机运行机制 冯·诺伊曼机 人工神经网络 思维
凝聚性思维 知识 抽取 核心知识 组合爆炸 低层次的知识 高层次的知识 符号
整体 扩散性思维 理解 概要 常识 模拟 局部回路神经元(local circuit neuron)
局部神经元回路(local neuronal circuit) 等级性的突触传递

深入一切法,通达一切法。
接收到的知识越多,智慧的光明就越旺盛!
 
学习学习来了。
 
文章看了,我现在正在考虑意识、直觉、理性思维之间的关系,以及对于同一信息
来源感知过程中,进行的不同层面的抽象,是怎样控制的?挺头痛的。
to DarwinZhang:过年见吧!
to creation-zy:给你发了封mail,请查收
 
总算把领导布置的任务完成了:)
前一阵发现了一个小东西: http://aimovie.warnerbros.com/html/flash.html :p
思考中... 原始知识库中的知识条数已经增加到80余条。
这两天看佛学文章,看到了《华严经》中提到了理法界、事法界、理事无碍法界、事事无
碍法界这四种法界,感触很深。如果说推理机属于理法界(每一步都有在知识库中的具体知
识为依据),那么人们平时的大多数思维应该属于事事无碍法界(譬如我们日常行住坐卧,
都是一件一件的事,每件事都有它在哲学上和科学上的道理。但是每个人都自自然然晓得走
路、穿衣、吃饭——事事无碍,样样平常,根本不管那个理不理)。
如果智能机只能停留在理法界的话,必然被越来越多的知识所淹没,陷入泥潭;如果要有
所突破,必然要在强有力的联想机制的作用下达到事事无碍法界。很遗憾,到现在为止,我
提出的知识库存储方案似乎难以用来存放这种联想关系...(就算能够存放,联想机的运作
机制也要从头想过)
Thinking......
 
发现一个老帐:
"2003-15-21: Hello! Can you access http://www24.brinkster.com/creationzy ?"
Sorry,I can't. [:(]

我最近发现自己对心理学的浅薄可能是一个巨大的缺陷,[:(]
当然还有对脑科学的无知,不过有wfzha兄会好得多.[:)]
 
>>如果智能机只能停留在理法界的话,必然被越来越多的知识所淹没,陷入泥潭;如果要有
所突破,必然要在强有力的联想机制的作用下达到事事无碍法界。很遗憾,到现在为止,我
提出的知识库存储方案似乎难以用来存放这种联想关系...(就算能够存放,联想机的运作
机制也要从头想过)
這要靠各學科齊頭並進。目前的科學在這方面好象沒有什麼根本性的措施
人的本能,人的意識,人的體驗這種東西照我目前的知識來講要用人工智能來實現太不可思議了。
 
最近我遇到一个精神病人(抑郁症),我在尝试通过心理学的方法治疗,也不知道是我的
方法管用了,还是病人自然缓解了,反正病人目前是缓解了。声明一下,我不是精神病医
生,也不是心理学医生,我用的方法也好像也是大逆不道的,没有一本教科书这样写过。不
过没有办法,这个病人承认自己有病,但决绝药物治疗。目前正在观察中。。。。。。
估计这对我们的研究是有好处的。
to DarwinZhang:我也不能访问
 
顶部