第11章

来自通约智库
跳转至: 导航搜索

 返回目录   第20次会议纪要10月1日

   9:30-17:00本次会议确定智能的定义,智能信息底层结构和相关算法初步设想,并基于这些内容讨论感知到理性认知的抽象过程细节。

   以下为发言记录整理:

   记忆:经过多次会议讨论,已经达共识的有这几点,1.智能是信息处理功能;2.智能运行在特定载体上;3.自主的智能可通过和环境的交互,修改自身状态和功能;4.自主的智能作用是实现自定的目标;5.自主智能的默认目标为本能的帮助载体存续,可在后天自行修改;6.自主智能修改自身功能和采取行为时,考虑的原则是减少痛苦获得奖励的体验-愉悦,奖励来源于内部计算资源的效用得到主观预期的提高和短期的释放。

   自主智能是特定载体上的自组织信息处理功能,出发点是维持群体的存续。具体方式是在环境交互中,学习和应用提高内部计算资源的主观预期效用的方法。

   从定义推论出自主智能是具身智能,感知、认知、理性、思维、行为、记忆等所有的核心智能功能都应该是底层的基于节点和边的生成、修改、删除算法演化分化出来的,都采用通用统一的数据结构和算法、通用统一的信息编码。

   以下从感知到理性认知的抽象过程的发言记录已涂黑。

   李德万:理论方面讨论暂时这样,项目进入信息回路模型的框架建设工作。

   完。    

   第21次会议纪要10月3日

   9:30-11:00本次会议总结之前的工作,确定了直接实现纯软件的巨巨助手是不可能的,间接在虚拟环境里实现也需要很大计算力和编写大量的模拟代码,项目改为具身助手。


   第22次会议纪要11月1日

   9:30-17:00本次会议从具身的可自主与环境交互的小规模脑子智能开始验证想法,然后看情况继续下一步工作。

   以下为发言记录整理:

   李德万:在座的各位,都说一下如何做这个信息回路模型具身智能的验证,比如硬件配置怎么定什么算基本配置,性能指标怎么跑,验证方法和通过的标准分别是什么。

   群演龙套:我觉得要不先做一条虫子机器人,计算资源小一些,看看什么表现?

   人形:可是虫子表现要什么样子才算通过验证?

   软萌:我觉得至少应该猫狗级别才行吧,再低的配置无法验证。比如考察是否能像狗一样听人指令?或说被驯化?

   NLP:无法用语言交流的AI怎么验证。应该是看这个模型能否学会语言并和人对话。

   2048:猫狗级别?这个硬件配置怎么估算,多少Hz多少bit或多少节点和边,类比为一个神经元?

   码农:计算机结构和蛋白质脑子不同,不能这样做计算资源类比吧。

   路人甲:先来一个主流PC配置,看看效果?

   渣男:猫狗级别的说法,是不行的。主流PC也有并发量比较小的问题。

   谜语人:并发量的问题,是不是可以先来100个单板机,组成个分布式存储和计算网络呢?看表现怎么样能否通过验证。

   软萌:虫子和猫狗的研究参考资料比较少,也不够系统,还是参考婴幼儿发育过程做验证比较好。比如婴儿运动表现测试、婴幼儿发展量表、儿童发育行为评估量表。

   李德万:那脑子硬件方面就这样定下来,设计一种以100个单板机为脑子配置的人形机器人作为第一步尝试,测试标准采用婴幼儿测试和量表。传感器采用人的时空分辨率设计。接下来考虑的是,先天本能是否要设置,如何设置。

   群演龙套:动物本能好像挺多的,物种之间也有不同,基本都是些模糊的。机器的本能应该要包含什么呢。

   路人甲:机器不用对食物流口水,没有食物的需求,也没有流口水这功能。

   人形:应该是能源电量低了就对电源有趋近想充电。

   码农:这个比较模糊,对于信息回路模型来说,好像实现起来还是有点难。如果只是充电,直接代码算法还简单些。

   软萌:所以,应该设置本能吗?

   2048:肯定要设置。如果没有一些先天反射行为,是很难和环境建立有助于智能发展的交互的。

   渣男:先解决智能机器自己充电吧。

   人形:想想小婴儿吧,生下来就只会哭、吮吸吞咬、睡觉。其他本能是后面表现的。那么机器也可以参照一下,初始化时候发现什么指标不对,电量、温度、湿度、压力等等,就警报,哭。看见充电线来了会抓住往自己接口上戳,或者无线充电更方便,身体贴过去就行。睡觉就不用什么设置了。

   2048:嗯,目视跟踪那些,可以用注意力机制去实现。疼痛避免,可以用剧烈的感受体验形成动机实现。

   人形:我觉得本能设置可以这样试一下,使用视频音频采集、动作采集和脑电采集设备,获取本能反应的相关数据,然后输入做梦状态的AI。做梦不是有反事实学习功能和缓存迁移长期记忆作用吗,就用做梦的方法来设置。

   群演龙套:为什么要用做梦方式做设置,模仿学习不行吗?

   人形:有些信息在外部是观察不到的,比如某人走在路上突然笑了,他也许是想到了好笑的事情。如果这个也模仿,AGi走路没事发笑的话,很没头脑的。某人难受了哭,为什么感到难受,这也不好模仿的。做梦有内部感受数据,就可以知道是某处受伤了疼,有完整的因果相关。

   码农:那采集哪些数据就得好好想了。情绪和感受,这个在人脑子里不好采集啊,怎么得到这部分数据呢。就算生成了这数据,也不好“输入”啊,这是内部自感知自认识,在复杂的自组织形成的网络里,很难找到那些对应的节点。

   2048:也不是没有办法。想想感知层的底层节点,那些都是遗传稳定的。那如果对情绪和体验感受的自感知信息,也建立这样的底层节点,问题就能解决了。这些底层节点就是输入的接口。dna遗传信息要对智能起到预期的作用,肯定也要有一些遗传的接口。

   渣男:如果AGI初始化状态的目标是人类小婴儿,那也不需要弄太多复杂的感受情绪,刚出生的小婴儿只知道不舒服难受疼的时候就哭,没有什么高兴啊哀愁啊怒等等情绪。对应的感受底层节点也就很少了。

   软萌:要给机器人设计哭吗,哇哇哇的播放音频?

   渣男:额,好像也不合适,也挺难搞的,播放警报哔哔哔?

   人形:都不合适吧,机器即时生成的发声技术,现在有电子音乐和模拟人声,前者是频谱合成音频,后者是文本转语音,这些对于机器婴儿来说,都是后天经验层次的。

   群演龙套:那有什么比较自然的机器即时生成动作?

   软萌:状态不好,多个节点激活,然后控制喇叭发出声音。这个应该也可以用做梦方式预置吧。

   码农:好像暂时也没有什么别的好办法。

   谜语人:人的感受外在表现,除了哭哇哇还有不少是依赖生理结构的,比如出冷汗、脸红、面部表情肌、吐舌头、舔嘴唇、作呕、瞳孔这些。机器人如果也要制造对应的肌肉汗腺泪腺、预置对应动作,那就太麻烦了,有什么简便的替代方法吗。

   2048:如果是情感陪伴机器人,这些是必要的,甚至还得高度仿真各种细节。面部、身材、xxoo器官。

   群演龙套:如果是巨巨智能助手,是没有必要做汗腺泪腺,用几个图片表情、颜文字怎么样。现在富文本的网络聊天都这样解决表情。

   渣男:还是不行吧,富文本方式得是能顺利解读他人身体表情之后才掌握的吧,颜文字更是都是后天层次了。

   2048:感受表现的维度挺多的,获利/受害及程度,双方是自身还是关系人(亲人仇人)还是客观规律、是否可逆可替代、施方受方的地位能力对比。其实就算是表情肌也不一定能准确表达所有的感受。我觉得有这几个解决方法,一是简化处理,比如模拟几个主要的表情肌肉动作或者来个颜色显示,把主要的维度表现出来就行。二是来个表情地图,将智能内部的状态映射到一个图表上,这个方法可以简化处理也可以准确的展示内部状态。三就是复制人的瞳孔表情肌和泪腺汗腺舌头牙齿鼻子喉咙声带之类的了。

   群演龙套:鼻子喉咙?干啥用

   2048:哼,你觉得呢。

   软萌:霍霍霍,傻瓜。

   渣男:桀桀桀(hiehiehie)

   李德万:暂时用简化表情肌+简化RGB效果吧。下次讨论100个单板机的脑子网络结构,操作系统、通信协议、数据结构、信息编码等问题。

   完。

   第23次会议纪要11月2日

   9:30-17:00发言记录已涂黑。

   李德万:下次会议讨论传感器、执行器选择,软件开发库、工具、环境选型与搭建。

   完。


   中间多次会议纪要涂黑,略。