 <?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-CN">
		<id>http://wiki.sseuu.com/index.php?action=history&amp;feed=atom&amp;title=AGI_%26_%E6%84%8F%E8%AF%86%E7%A7%91%E5%AD%A6_%E6%AF%8F%E5%91%A8%E9%80%9F%E9%80%92</id>
		<title>AGI &amp; 意识科学 每周速递 - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://wiki.sseuu.com/index.php?action=history&amp;feed=atom&amp;title=AGI_%26_%E6%84%8F%E8%AF%86%E7%A7%91%E5%AD%A6_%E6%AF%8F%E5%91%A8%E9%80%9F%E9%80%92"/>
		<link rel="alternate" type="text/html" href="http://wiki.sseuu.com/index.php?title=AGI_%26_%E6%84%8F%E8%AF%86%E7%A7%91%E5%AD%A6_%E6%AF%8F%E5%91%A8%E9%80%9F%E9%80%92&amp;action=history"/>
		<updated>2026-05-07T07:34:59Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://wiki.sseuu.com/index.php?title=AGI_%26_%E6%84%8F%E8%AF%86%E7%A7%91%E5%AD%A6_%E6%AF%8F%E5%91%A8%E9%80%9F%E9%80%92&amp;diff=115055&amp;oldid=prev</id>
		<title>2022年6月6日 (一) 23:09 江南仁</title>
		<link rel="alternate" type="text/html" href="http://wiki.sseuu.com/index.php?title=AGI_%26_%E6%84%8F%E8%AF%86%E7%A7%91%E5%AD%A6_%E6%AF%8F%E5%91%A8%E9%80%9F%E9%80%92&amp;diff=115055&amp;oldid=prev"/>
				<updated>2022-06-06T23:09:00Z</updated>
		
		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table class=&quot;diff diff-contentalign-left&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr style=&quot;vertical-align: top;&quot; lang=&quot;zh-CN&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: white; color:black; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: white; color:black; text-align: center;&quot;&gt;2022年6月6日 (一) 23:09的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l1&quot; &gt;第1行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第1行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{5}}&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{5}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;−&lt;/td&gt;&lt;td style=&quot;color:black; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[AGI]] 每周速递&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;+&lt;/td&gt;&lt;td style=&quot;color:black; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[AGI]] &lt;ins class=&quot;diffchange diffchange-inline&quot;&gt;[https://mp.weixin.qq.com/s/Oi0vYaQYiVfLqX-eP833uA &lt;/ins&gt;每周速递&lt;ins class=&quot;diffchange diffchange-inline&quot;&gt;]&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;'''[1]&amp;#160; 智源研究院发布仿真秀丽线虫天宝1.0'''&amp;#160;  &amp;#160;&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;'''[1]&amp;#160; 智源研究院发布仿真秀丽线虫天宝1.0'''&amp;#160;  &amp;#160;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>江南仁</name></author>	</entry>

	<entry>
		<id>http://wiki.sseuu.com/index.php?title=AGI_%26_%E6%84%8F%E8%AF%86%E7%A7%91%E5%AD%A6_%E6%AF%8F%E5%91%A8%E9%80%9F%E9%80%92&amp;diff=115045&amp;oldid=prev</id>
		<title>江南仁：创建页面，内容为“{{5}} AGI 每周速递  '''[1]  智源研究院发布仿真秀丽线虫天宝1.0'''     在今年的智源大会会中，天验团队发布了仿真秀丽线虫...”</title>
		<link rel="alternate" type="text/html" href="http://wiki.sseuu.com/index.php?title=AGI_%26_%E6%84%8F%E8%AF%86%E7%A7%91%E5%AD%A6_%E6%AF%8F%E5%91%A8%E9%80%9F%E9%80%92&amp;diff=115045&amp;oldid=prev"/>
				<updated>2022-06-06T22:06:55Z</updated>
		
		<summary type="html">&lt;p&gt;创建页面，内容为“{{5}} &lt;a href=&quot;/index.php?title=AGI&quot; title=&quot;AGI&quot;&gt;AGI&lt;/a&gt; 每周速递  &amp;#039;&amp;#039;&amp;#039;[1]  智源研究院发布仿真秀丽线虫天宝1.0&amp;#039;&amp;#039;&amp;#039;     在今年的智源大会会中，天验团队发布了仿真秀丽线虫...”&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{5}}&lt;br /&gt;
[[AGI]] 每周速递&lt;br /&gt;
&lt;br /&gt;
'''[1]  智源研究院发布仿真秀丽线虫天宝1.0'''   &lt;br /&gt;
&lt;br /&gt;
在今年的智源大会会中，天验团队发布了仿真秀丽线虫天宝1.0 ( MetaWorm )，通过使用仿真环境来进行全闭环模拟，训练出由高精度神经系统控制的、与环境实时交互的秀丽线虫。天宝能够像真实线虫一样通过嗅觉寻找进行目标寻找，蠕动前行，以及趋利避害等，该工作对生物神经科学与人工智能前沿探索领域具有重大意义。&lt;br /&gt;
&lt;br /&gt;
[[文件:AGI &amp;amp; 意识科学1.gif]]&lt;br /&gt;
&lt;br /&gt;
'''[2] 维果茨基自动人工智能：类人人工智能的语言和文化内化'''&lt;br /&gt;
&lt;br /&gt;
标题:  Vygotskian Autotelic Artificial Intelligence: Language and Culture Internalization for Human-Like &lt;br /&gt;
&lt;br /&gt;
链接：https://arxiv.org/abs/2206.01134&lt;br /&gt;
&lt;br /&gt;
作者：Cédric Colas,Tristan Karch,Clément Moulin-Frier,Pierre-Yves Oudeyer&lt;br /&gt;
&lt;br /&gt;
摘要：&lt;br /&gt;
&lt;br /&gt;
人工智能的基本目标之一是构建能够发展开放式技能的自主人工智能体。为此，一种有前景的发展方法建议设计内在动机的代理，通过生成和追求自己的目标来学习新技能-自动特效代理。然而，现有的算法在目标多样性、探索性、泛化或技能组合方面仍然存在严重的局限性。这一观点要求自主人工智能体能够融入进丰富的社会文化世界。我们主要关注语言部分，以及它的结构和内容如何支持人工智能体新认知功能的发展，就像人类一样。事实上，我们的大多数技能都不能孤立地学习。正规教育教我们系统地思考，书籍教我们历史，YouTube可能教我们如何烹饪。至关重要的是，我们的价值观、传统、规范和大多数目标本质上都是与文化相互交织的。一些人认为，我们的一些认知功能，如抽象、合成想象或关系思维，是通过语言和文化互动形成的。受维果茨基工作的启发，我们建议设计一套维果茨基的自主人工智能体，能够与他人互动，更重要的是，能够将这些互动内在化，将其转化为支持新认知功能发展的认知工具。本文提出了一种新的人工智能范式，以寻求人工终身技能发现。它通过使用深度强化学习和自然语言处理的交叉，发现最近工作中语言和具体化之间的交互产生的新的人工认知功能的例子，证明了该方法的合理性。展望未来，它强调了维果茨基自动化人工智能研究的未来机遇和挑战。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''[3] 发现《DALE-2》中的隐藏词汇'''&lt;br /&gt;
&lt;br /&gt;
标题:  Discovering the Hidden Vocabulary of DALLE-2&lt;br /&gt;
&lt;br /&gt;
链接：https://arxiv.org/abs/2206.00169&lt;br /&gt;
&lt;br /&gt;
作者：Giannis Daras,Alexandros G. Dimakis&lt;br /&gt;
&lt;br /&gt;
摘要：&lt;br /&gt;
&lt;br /&gt;
我们发现DALLE-2似乎有一个隐藏的词汇表，可以用来生成带有荒谬提示的图像。例如，似乎“Apoloe Vesreaitais”表示鸟类，而“Contarra ccetnxniams luryca tanniounons”（有时）表示虫子或害虫。我们发现，这些提示通常是孤立的，但有时也是组合的。我们提出了我们的黑盒方法来发现看似随机但与视觉概念有一定对应关系的单词。这带来了重要的安全性和可解释性挑战。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''[4] 通过一种进化方法来动态的想大规模多任务学习系统中引入新的任务'''&lt;br /&gt;
&lt;br /&gt;
标题：An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale Multitask Learning Systems&lt;br /&gt;
&lt;br /&gt;
链接：https://arxiv.org/abs/2205.12755&lt;br /&gt;
&lt;br /&gt;
作者：Andrea Gesmundo、Jeff Dean&lt;br /&gt;
&lt;br /&gt;
摘要：&lt;br /&gt;
&lt;br /&gt;
多任务学习假设，一个能够从多个任务中学习的模型可以通过知识转移实现更好的质量和效率，这是人类学习的一个关键特征。然而，最先进的ML模型依赖于每个任务的高度定制化，并利用大小和数据规模，而不是扩展任务的数量。此外，持续学习为多任务增加了时间方面的因素，通常被集中在对灾难性遗忘等常见陷阱的研究上，而不是作为构建下一代人工智能的关键组成部分进行大规模研究。我们提出了一种进化方法，该方法可以生成大规模的多任务模型，并且能够支持新任务的动态和连续添加。生成的多任务模型是稀疏激活的，并集成了基于任务的路由，该路由保证了有限的计算成本，并且随着模型的扩展，每个任务增加的参数更少。该方法依赖于知识划分技术来实现对灾难性遗忘和其他常见陷阱的免疫力，如梯度干扰和负迁移。我们的实验表明，该方法可以联合解决69个图像分类任务，并取得具有竞争力的结果，例如，对于cifar10：99.43%的竞争性任务，仅基于公共数据训练的模型获得了最好的测试准确率。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''意识科学每周速递'''&lt;br /&gt;
&lt;br /&gt;
'''[1]  意识图灵机与一种智能多模态语言的形式化'''&lt;br /&gt;
&lt;br /&gt;
标题：Brainish: Formalizing A Multimodal Language for Intelligence and Consciousness&lt;br /&gt;
&lt;br /&gt;
链接：https://arxiv.org/abs/2205.00001&lt;br /&gt;
&lt;br /&gt;
作者：Paul Pu Liang&lt;br /&gt;
&lt;br /&gt;
摘要：&lt;br /&gt;
&lt;br /&gt;
拥有丰富的多模态内在语言是人类智能的一个重要组成部分，它能够实现一些必要的核心认知功能，如多模态预测、翻译和生成。以 [Lenore Blum 和 Manuel Blum （2021)] 提出的意识图灵机（CTM，Conscious Turing Machine）为基础( https://arxiv.org/abs/2107.13704)，我们提出了一种叫做 Brainish 的多模态语言的必要机制，它包括文字、图像、音频和感觉，结合在CTM处理器用在相互交流的表示中。通过多模态人工智能的视角定义和操作这种语言，Brainish的 一般框架包括设计（1）单模态编码器来分割和表示单模态数据（2）一个协调的表示空间，将单模态特征联系起来并进行组合，以得出跨多模态输入的整体意义，以及（3）解码器将多模态表示映射为预测（用于融合）或原始数据（用于翻译或生成）。通过讨论 Brainish 对于沟通和协调以实现CTM中的意识是怎样的，以及通过实现一个简单的 Brainish 版本并评估其在几个真实世界的图像、文本和音频数据集的多模态预测和检索任务中展示智能的能力，作者认为这样一种内部语言对于智能和意识的机器模型的改进非常重要。&lt;br /&gt;
&lt;br /&gt;
[[文件:AGI &amp;amp; 意识科学2.png]]&lt;br /&gt;
&lt;br /&gt;
图灵奖获得者 Manuel Blum 提出的意识图灵机（CTM），是一种能够表达感受而非仅仅模拟的机器，由七元组系统组成，以及每个记忆组块具有六种属性，具有确定性和概率性。它是对神经科学家 Bernard Baars 剧场模型和全局空间理论的新理解和数学模型化，但与之在短时记忆中可以具有多重演员（actor）不同的是，CTM 在意识舞台上总是一个相同的演员，该演员可以提出或回答任何问题，或传达任何种类的信息，但总会扮演获胜的那部分作为广播的脚本。有关CTM的算法实现，参照 https://www.notebookarchive.org/implementing-blum-s-conscious-turing-machines--2021-07-61dzgpq/&lt;br /&gt;
&lt;br /&gt;
[[文件:AGI &amp;amp; 意识科学3.png]]&lt;br /&gt;
&lt;br /&gt;
世界建模处理器（The model-of-the-world processor）是一个多模态处理器的例子，它将代理主体从物理世界观察到的多感官信息整合成一种多模态表示（gist），计划对世界上可能的行动，并根据其行动对世界的影响来更新自己（即通过观察新的状态和奖励作为其行动的结果）&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''[2] 迭代更新工作记忆：机器意识和超级人工超智能一个计算框架'''&lt;br /&gt;
&lt;br /&gt;
标题:  A Computational Architecture for Machine Consciousness and Artificial Superintelligence: Updating Working Memory Iteratively&lt;br /&gt;
&lt;br /&gt;
链接：https://arxiv.org/abs/2203.17255&lt;br /&gt;
&lt;br /&gt;
作者：Jared Edward Reser&lt;br /&gt;
&lt;br /&gt;
摘要：&lt;br /&gt;
&lt;br /&gt;
这篇论文章研究了如何在计算机中构建类似人类的工作记忆和思维过程。框架具有两个工作记忆存储器，一个类似于联合皮层的持续激发，一个类似于大脑皮层的突触增强。这些存储必须不断地更新来自环境刺激或内部处理的新表征。这些更新是连续的、且以迭代方式进行的：即在下一个状态中，共同作用中的一些项应该始终被保留。因此，工作记忆中共同作用的概念集将随着时间推移而发生渐进式演变，每个状态都是前一个状态的迭代修正，并使得其中连续状态是它们所包含表征集合的重叠与融合。随着新表征的加入和旧表征的褪去，在变化过程中有些表征仍然活跃了几秒钟。这种持续的活动，类似于人工递归神经网络中使用的活动，被用来在整个全局工作空间传播激活能量，以寻找下一个关联更新。其结果是一连串关联的中间状态，能够向解决方案或持续目标推进。迭代更新在这里被概念化为一种信息处理策略，一种思维之流的计算和神经生理的决定机制，以及一种设计和编程超级人工智能的算法。&lt;br /&gt;
&lt;br /&gt;
解读：&lt;br /&gt;
&lt;br /&gt;
[[文件:AGI &amp;amp; 意识科学4.png]]&lt;br /&gt;
&lt;br /&gt;
迭代更新模块的一个周期。其中注意焦点（FoA，focus of attention）保存着有意识的注意的信息单元，并嵌入到短期记忆中）&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[文件:AGI &amp;amp; 意识科学5.png]]&lt;br /&gt;
&lt;br /&gt;
不同系统工作记忆的韦恩图。对超级AI的工作记忆存储进行编程，使其比生物保持更长的时间，可以提高它们在因果联系的事件之间建立有效的联想联系的能力，这些事件在时间上有很长的持续，延长的注意力可以增加对长期依赖关系的识别，导致对人类无法感知的高阶模式和抽象的感知&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''[3] 注意力图式：意识的一种通用概念框架'''&lt;br /&gt;
&lt;br /&gt;
标题：A conceptual framework for consciousness&lt;br /&gt;
&lt;br /&gt;
链接：https://www.pnas.org/doi/pdf/10.1073/pnas.2116933119&lt;br /&gt;
&lt;br /&gt;
作者：Michael S. A. Graziano&lt;br /&gt;
&lt;br /&gt;
摘要：&lt;br /&gt;
&lt;br /&gt;
本文的目标是提出一个逻辑合理、具有解释性的意识通用框架，以便可以科学地理解什么是意识，以及它在大脑适应性功能中起什么关键的作用。文章分三个主要部分：一、描述了大脑中信息处理的背景原则，从中可以推导出一个解释意识的合理的一般性框架；二、描述了一个体现这些背景原则的具体理论，即注意力图式理论（Attention Schema Theory）。在过去几年里，越来越多的实验证据，包括行为证据、脑成像证据和计算模型等，已涉及到该理论的各个方面；三、讨论了意识的演变。通过强调意识在认知和行为中的具体作用，目前的方法如何导向一种对意识在数百万年里从鱼到人的进化的建设性解释。&lt;br /&gt;
&lt;br /&gt;
解读：&lt;br /&gt;
&lt;br /&gt;
身体图示与注意力图式的比较。(A)身体图示是表征身体的一组信息，以促使更好地控制身体，理解其他人的身体构造、和对自己身体的认知信念和语言主张。(B) 注意力图示是表征注意力的一组信息，具有与身体图示类似的后果。&lt;br /&gt;
&lt;br /&gt;
[[文件:AGI &amp;amp; 意识科学6.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''[4] 四种意识理论综述'''&lt;br /&gt;
&lt;br /&gt;
标题: Theories of consciousness&lt;br /&gt;
&lt;br /&gt;
链接:  https://www.nature.com/articles/s41583-022-00587-4&lt;br /&gt;
&lt;br /&gt;
作者：Anil K. Seth &amp;amp; Tim Bayne&lt;br /&gt;
&lt;br /&gt;
摘要：&lt;br /&gt;
&lt;br /&gt;
近年来，关于意识的生物和物理基础的理论百花齐放。好的理论指导实证研究，能够解释经验和数据，开发新的实验技术，扩大人们操纵感兴趣的现象的能力。然而，就意识而言，目前的理论是如何相互关联的，或者它们是否可以从经验上加以区分，这一点还不清楚。为了澄清这一复杂局面，作者回顾了四种主流的意识理论方法：整合信息论（Integrated information theory），全局空间理论（Global workspace theories），再入与预测加工理论（Re-entry and Predictive processing theories）以及高阶理论（Higher-order theory）。文章描述了每一种方法的关键特征，指出它们所认同解释意识的哪些方面，其神经生物学承诺是什么，以及引用了哪些经验数据来支持自己。&lt;br /&gt;
&lt;br /&gt;
解读：&lt;br /&gt;
&lt;br /&gt;
在这四种理论中，IIT提供了整合信息和因果信息Φ作为意识水平的度量，GWT则描述了潜在的信息如何经过注意力选择进入工作记忆成为意识的，RPP则描述了大脑自上而下和自下而上两种过如何结合预测编码和感知觉生成意识，至于HT则基于高层次的表征思路，认为在初级感知觉之后更高层次的表征，尤其是自我表征则形成了意识。这四种理论在内在原理上都和自指（Self-reference）机制高度相关，值得我们进一步思考和研究。&lt;br /&gt;
&lt;br /&gt;
[[文件:AGI &amp;amp; 意识科学7.png]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Mindverse Research]]&lt;br /&gt;
&lt;br /&gt;
[[心识研究院]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''心识浩渺连广宇'''&lt;br /&gt;
&lt;br /&gt;
[[心识研究院|心识宇宙研究院]]，致力于在即将到来的元宇宙数字时代，研究和创造真正等价于人类意识水平的数字生命，目前已经综合多种研究进路和方法规划出一条通向[[AGI]]和人工意识的道路。在后续内容运营上，我们也会介绍和创造更多有关[[人工智能]]、[[意识科学]]、[[元宇宙]]方面最新的研究成果和原创内容。&lt;br /&gt;
&lt;br /&gt;
欢迎有志者关注和加入我们的研究！&lt;/div&gt;</summary>
		<author><name>江南仁</name></author>	</entry>

	</feed>