77207

摩杰娱乐平台

电话:77207
邮箱:77479@qq.com
手机:
地址:江苏省常州市

产品一类

摩杰平台主管网站:特邀报告莱斯利Kaelbling对话IJCA

作者:佚名 发布时间:2019-04-30 21:45

雷锋网(公开号:雷锋网) AI技术回顾:IJCAI(人工智能,人工智能国际联合会议国际联席会议)是人工智能领域的老大,也是最大功率会议之一,随着近年来的热量上升,越来越多的人工智能,原本只在奇数举行数年的IJCAI举行2015年以来成为一年。今年,备受瞩目的IJCAI也将如约而至,在中国澳门,10日至8月16日。

特邀(邀请报告),作为最受关注的IJCAI方面,与即将到来的会议之一,应邀发言者名单也已刊登在。随着人工智能机器人领域是一个非常重要的研究,会议还邀请了机器人专家,在马萨诸塞州莱斯利Kaelbling教授做专题报告。届时,她将带来主题为“做我们的机器人进化什么为我们所做的”演讲嘉宾。

张国荣Kaelbling是科技机器人专家在美国麻省理工学院。她接受了强化学习人工智能研究,规划,机器人导航等引人注目的研究成果,包括马尔可夫决策过程将被应用到人工智能和机器人技术,已经获得IJCAI运筹学在观察到的部分“计算机与思想奖”(电脑和思想奖)等重要奖项,而她是人工智能负盛名的领域“杂志机器学习”的创始人和主编。

最近,麻省理工学院教授莱克斯·弗里德曼在其播客访谈节目“人工智能播客”与张国荣Kaelbling对话。对话,张国荣Kaelbling不仅分享了她的故事写成从哲学领域计算机科学领域,并与人工智能和机器人结缘的背后,还阐述了他们对机器人的发展与现状的看法。

视频播放面试地址:https://开头WWW。YouTube的。COM /手表?V = Er7Dy8rvqOc

摩杰平台主管登录对话 IJCAI 2019 特邀讲者 Leslie Kaelbling:与 AI 和机器人结缘背后的故事(上篇)

雷锋网AI技术审查裁定书如下视频采访,全文不改变修剪的意图。

莱斯利Kaelbling:AI说到的是什么我有浓厚的兴趣,我就不得不提到我在高中的时候,“哥德尔,埃舍尔,巴赫”读(G?德尔,埃舍尔,巴赫)。这本书是伟大的形状,对我来说,它让我感到的功能和原有功能的另一个有趣的组合,也让我更好地了解复杂的事情区分比较容易的部分,并开始思考AI程序以及如何允许机器能够生产的智能行为。

莱克斯·弗里德曼:所以,你实际上是开始喜欢AI和机器人的逻辑推理。

莱斯利Kaelbling:是的,那是因为我喜欢机器人的第一份工作。当时我在哲学毕业于斯坦福大学,他正打算读硕士学位的计算机科学学位,然后我被录用SRI,到他们的AI实验室工作。他们工作的一个类似的摇摇欲坠的后代机器人,但摇摇欲坠的原开发商都不在了,所以我的工作就是尽量让这个机器人必须做的事情的能力。这也使机器人的机会我很感兴趣。

莱克斯·弗里德曼:让我们来备份你的大学生涯。你获得斯坦福大学计算机科学硕士和博士学位,但是看了你的大学本科哲学专业的,你认为哲学哪个部分是你可以申请学习计算机科学,。

莱斯利Kaelbling:哲学与计算机科学密切相关。我没有读过大学本科计算机科学,因为斯坦福大学还没有设立这个职业,但事实上,斯坦福大学开设了一个特殊的未成年人的程序,例如纪律现在被称为讲授这门课程内容的符号系统(符号系统)逻辑模型理论(逻辑模型理论),以及在自然语言的语义的形式(自然语言的形式语义)。人工智能研究和计算机科学之后,我工作做出了完美的床上用品。

莱克斯·弗里德曼:这是很有趣的。如果AI很感兴趣,它通常会选择哪个计算机相关课程?对于你被AI的想法深深着迷,除了理念,有什么其他原因,也从派生?

莱斯利Kaelbling:当时没有多少人从事的研究在这个方向,甚至没有人讨论。但我的大学同学实际上是人工智能很感兴趣:我们班有将近一半都转向计算机科学的研究中,近一半的研究转向了法律界人士,而只有一两个学生留在专业学习理念。所以,实际上与两个在哲学和计算机科学是相当普遍的意义。

莱克斯·弗里德曼:你认为人工智能研究人员需要有另外一个身份的哲学家,或者说,他们应该坚持搞“硬”科学和工程研究,而不需要为一些哲学思考?也就是说,如果研究人员从事机器人的研究,而不是从一个大的研究看哲学问题的角度不错,我们又该用什么来的出色工作功率输出它的AI?

莱斯利Kaelbling:我认为,在哲学中最密切相关或有些相关的AI和AI,是信仰,知识和表达这些东西。这些其实都是很正式的事情,似乎只有一步之遥,从我们的计算机科学的经常性工作。我认为这仍然是一个非常重要的问题,你可以做,什么不能由机器完成。虽然我个人完全是一个唯物主义者,但我认为我们没有理由不发展没有机器人和人类的区别一个行为,以确定它是否从人类心脏的不同,关键是无论是直觉或哲学思考。其实,我不知道他是很关心这个。

但我们现在知道,他们没有得到哲学思维,知觉和行为的规划和在现实世界中流畅运行有多难。毕竟,机器人在许多任务,如人类是无法做到。

所以现在的问题是,事实上,现在的机器人和人类尚处于理念的巨大差距。我们都知道,如果机器人在现实世界中运用这些知识,我们需要扩大知识和需要有常识推理的一种形式,在大部分工作中的能力的不确定性。这些都是开放性的问题,我不知道如何确定这些问题的利用和全面的角度。

对我来说,这似乎是一个哲学的差距不是一个问题,而是一个大的技术难题,除此之外,我不认为在其他领域的机器人和人类的差距。

莱克斯·弗里德曼:好。你觉得还是有一些AI后悔?请记住,当你开始变得感兴趣的机器人或机械手,那么是什么印象摇摇欲坠的机器人?你是想象中的机器人它是否实现?

莱斯利Kaelbling:我开始机器人的研究是摇摇欲坠,这是SRI研究人员已经开发出一种机器人。当我第一次进入了SRI,当站在办公室的角落,它是液压油滴在一个锅里。该机器人是非常标志性的,每个人都应该阅读有关摇摇欲坠的技术报告,因为它汇集了众多谁是非常好的想法,比如他们不仅是良好的搜索,规划和学习手宏观运营商应用到机器人身上,机器人还更多的低级空间规划配置,并在该臂的摇晃不定配置。在许多方面,他们有基本的一个清晰的概念。

摇晃的在移动机器人,它可以推动物体,与致动器的帮助和安装在其自身的底架,可以将对象移动到下一个。同时,它可以使用它的眼光来定位自己,以检测对象,并计划在此基础上所看到的,和推理,如果你想参观和拍照。我认为这是我们能想到很多事情都有一个基本的了解。

莱克斯·弗里德曼:您如何看待这表明它周围的环境空间的?

莱斯利Kaelbling: 对于许多人来说,代表了不同的抽象层次有知识,我认为,这是低层次的抽象表示,使用某种占用电网; 对于高级抽象,表示将使用的抽象符号的一定的空间和相关性。

莱克斯·弗里德曼:现在有被称为词“片状”(片状)。

莱斯利Kaelbling:是。在SRI那个时候,我们正在开发一个新的机器人。正如我刚才所说,球队没有一个从摇摇欲坠的该项目之前,所以我们从头开始当量。这是我的导师,并最终成为了Stanresinshine我的论文导师,曾获“情景计算”由(位于计算)或“情景自动装置”(位于自动机)这个想法的启发。我们的想法是:逻辑推理的工具是非常重要的,但也有可能只会在系统被用于分析工程师或该工具的设计,此外,该工具没有被应用到系统自带的头。

当时我想,我们可以用逻辑来证明的机器人行为的理论:即使在机器人不使用它的逻辑头,它能够手臂动作。这就是区别。and我们的想法是用这些原则来制定一个机器人可以做的事情。但在当时,我需要学习很多基础性的工作,因为我没有学会机器人的背景下,我不知道任何机器控制,感知相关知识。所以在这个过程中,我们投入了大量的技术开发一遍。

莱克斯弗里德曼:你觉得这是优势还是将它拖到?

莱斯利Kaelbling:我的意思是,在这个过程中,你可以学到很多东西,和后,终于克服困难可以更清楚地了解自己的步行路程,那里一步。

莱克斯·弗里德曼:你可以总结一下AI和机器学习强化学习的历史,你怎么看它从20世纪50年代到现在的发展?

莱斯利Kaelbling:其发展的一个重要特点是漂泊:成为热后跌至谷底,后来开始流行,随后跌至低点。事实上,我认为这在很大程度上是由社会学流程驱动的过程。

在早期,它的发展与控制论的发展,人们的想法,开发机器人的动态平衡,当机器人需要的动能为他们充电,那么他们可以打滚,做的事情。后来,我想了很长一段时间,这样的想法,我认为这是有益的。但是,当它赞成这个想法是不是,他们认为我们需要得到真正接近过实现智能机器人,该类聪明的人。

之后人们试图专家系统,实现真正的智能,但一切都太面对。我们的智力的理解是表面,这与我们如何操作钢厂的理解。我们相信,只要聪明的解释,那么就顺理成章地把它写下来,然后计算机后,设计其上,实现专家系统的推理,但结果,我们发现电脑无法实现的推理。但我认为更有趣的是,当专家系统开始变得不那么好,我们不仅改变了研究方法,我们也改变了问题。我们似乎更好的方法没有,甚至可以说是没有办法解决专家系统的问题。最终我们放弃了专家系统来解决这个问题,转向一个完全不同的问题。

莱克斯·弗里德曼:研究界大概是很多人认为专家系统不应该放弃,你会问题搁置到一边。20年刚才让我们回到正题,专家系统,后发展。

莱斯利Kaelbling:专家认为,该系统是不正常的,这种观点是可以理解的,这就像有些人认为只是做一些表面符号推理是错误的,也有部分人认为医生不应该成为一个真正的医生你有相同的临床经验之前。因此,有是对还是错方向的争论是正常的时间的问题,但我们终究无法找到一个解决方案。

莱克斯·弗里德曼:您刚才也提到,逻辑和象征性的系统,你最喜欢的部分是,他们可以为一个名为大规模设置给一个简短的名字。那么在它符号推理,这些应用的方面,如专家系统或符号计算?你认为在20世纪80年代和90年代的东西,是最大的障碍人工智能的发展?

莱斯利Kaelbling:其实我不是一个专家系统的倡导者,但我实际上是在一些象征性的推理很感兴趣。当谈到阻碍人工智能的发展,我认为主要的障碍是人们的观念,我们认为人类的逻辑语句可以有效地把自己的知识转化为某种形式的。

莱克斯·弗里德曼:这不仅需要付出的代价和努力,也是人类真的有这个能力。

莱斯利Kaelbling:是。虽然我们被认为是专家有远见的,但不能是想了解我们是如何做到这一点完全内省方式。在这一点上,我认为它实际上是每个人都明白:专家系统不要求写下来用来识别人的水瓶的规则,而是写下来的规则作出决定。我认为,当大家发现了,解释所谓的专家可以给,像老鹰可以解释如何做到的事情,为什么他们做的事情一样。他们给的解释是不一定好。

之后,他们改变了专家系统,而不是依赖于对事物感知的东西,但这些东西的感觉回到我们刚才提到的,我们不能将它们定义好。所以从根本上说,我认为最根本的问题是假设,人们可以说出他们做出决定,为什么。

莱克斯·弗里德曼:所以,从那里从转换编码的专业知识后,它变成了一个东西可机器理解和推理。

莱斯利Kaelbling:它不是。这不仅需要编码知识需要做出完全脱离专家。我的意思是,知识编写计算机本来就很难。我认为人们将无法产生出来的知识。我们可以讲一个故事,告诉我为什么这样做,但我不知道这样的事情可以作为一台机器理解来表达。

莱克斯·弗里德曼:有一个分层规划还是没用符号推理,就像你刚才提到的。那么,在这特殊困难?

莱斯利Kaelbling:即使人类无法提供机器的推理过程的描述,这并不意味着你不能在计算机内进行各种风格的推理。这些只是两个正交分(正交分)。在这种情况下,这个问题实际上变成:的方式,其中所述推理应该是在计算机内?答案是,我认为计算机内部需求所面临的不同问题,采用多种推理。

莱克斯·弗里德曼:我是明白的是,这个问题是,人们可以注册编码的类型的东西,以实现推理?

莱斯利Kaelbling:关于符号,我根本不喜欢的术语,因为我不知道是什么,在技术上和形式上,在同一时间结束手段,我相信抽象的。抽象是直观的,这一点很重要,因为生活中的一切,人们无法从极其精细的粒度充分理由。你不能只是基于一些图像,使博士生的决定。

所以,如果你想推断博士学位,甚至买什么食物来做晚餐,你必须减少国家空间视觉和推理的大小。如何狭隘的眼光是大小或推理的状态空间?答案是抽象:抽象的空间和抽象的时间。

我想沿着抽象目标的轴也很有意思,目标抽象和分解的过程可能更像一个向下突破,在一定程度上,我认为这就是所谓的象征性的或离散模型。当你说话,你不妨说说房子的面积,而不在某个时间点满足你的姿势; 你会说你做下午的东西,但你不会两个54分要说的东西。你这样做,因为它实际上可以简化你的理由,你没有足够的信息,在下午的姿态开展高保真上你的推理2 54。

必须重申我的观点是很重要所有这些不应该成为教条,我们不应该做的,不应该这样做。我可以同意象征性的推理,但你也可以支持神经网络。计算机科学最终会告诉我们所有这些问题的正确答案是,如果我们不够聪明,你也可以找到。

莱克斯·弗里德曼:是的,事实上,当你试图解决与计算机实际问题,正确的答案自然会出来。你刚才提到的抽象的概念,指的是从抽象来源的所有网络,有一个自动化的方式来形成的战略,专家驱动的方法来构建抽象的,目前我们似乎建立在抽象更好的性能,所以你提到的两个54和对比度下午,我们如何建立这样的分类是?无论是现在可以实现诸如自动构建抽象类?

莱斯利Kaelbling:我认为,当机器学习更好的发展,工程师可以开发算法建立很好的抽象。

莱克斯·弗里德曼:我们希望放下抽象的讨论,谈论马尔可夫决策过程(部分可观察马尔可夫决策过程,POMDPs)部分可观察。首先我想问你什么是马尔可夫决策过程?在我们的世界有多少东西可以建模和马尔可夫决策过程。例如,你如何看待上午的早餐成本的角度POMDPs?以及如何对待POMDPs?这是与我们的现实世界,以及如何建立联系?

莱斯利Kaelbling:事实上,这个位置是一个问题,我认为这个问题是位置,位置。我作为一个研究者或系统设计人员可以选择如何建立一个模型,我周围的世界,了解这个混乱的世界。如果我因为它会处理这类问题,我可以下这种类型的算法思想,提出解决问题的方案。当然,这种模式并不代表世界上能解决什么问题,也不是马尔可夫决策过程。但是,我可以模拟各种方式找到解决的办法,一旦我找到建模的正确方法可以用来获得一些算法。

莱克斯·弗里德曼:您可以为世界建模多种方式。有些方式会更倾向于接受不确定性,更容易建模不确定性的世界,而一些方面,这可能会迫使世界陷入不确定性。

莱斯利Kaelbling:是。有些型号是不确定的,但这种模式并不代表不确定性的当前状态,但建模的未来发展趋势。

莱克斯·弗里德曼:那么什么是马尔可夫决策过程?

莱斯利Kaelbling:马尔可夫决策过程,是一个假设,我可以完全了解系统的当前状态,也就是要掌握系统的所有信息模型做出关于未来的预测。所以请记住所有的事情发生的历史,对未来的预测有关的好坏不这样做。同时,该机型还假定我是能够采取一些行动来改变世界的现状,而我不能确定的模型中,这些变化,但只有建立一个概率模型。这种概率模型可能对一些系统非常有用,但对于大多数的问题是没有用的。因为对于大多数问题,你不仅可以看到自己国家的一部分,而这些问题是彼此不同。

莱克斯·弗里德曼:因此,对于马尔可夫决策过程,我们只能观察状态的一部分。所以,当你可以观察到大部分国家,我们不能完全理解关于周围世界,马尔可夫决策过程,以及如何应对现实问题,那么信息?

莱斯利Kaelbling:现在,这个过程中的想法仍然是,也有我们知道周围的假设世界上的一些信息的情况下,我们可以做一个很好的预测。虽然我们不知道当前的完整状态,但我们可以通过图像,感觉,观察,然后根据历史行为在世界上推断趋势观察和未来的发展立足于自身无法确定,决定采取何种措施。

莱克斯·弗里德曼:制定一个计划,在有疑问的情况下,这个问题是非常困难的。在世界的建模不确定性的应对现实世界中,这个特定的系统,你有非常丰富的经验。

莱斯利Kaelbling:这个问题往往不是最好的规划决策,这取决于你如何设定。很多人说,我不使用POMDPs,因为它们难以处理。我个人认为这是一个很有趣的事情,因为这个问题被称为问题,你要解决的是有必要。

我们人工智能的研究者之所以有一个要解决的问题,因为很难。大家都明白,我们正在处理难的问题在计算中是非常高的,我们可能无法找到它的最佳解决方案。即使我们认为可能无法提出最佳的解决方案,但仍然会回到这个问题一次又一次地探讨我们能做的最好的就是让建模,算法不断,不断地接近最佳。

我永远不会说,怎么复杂的计算问题。相反,这些复杂的问题,可以让我更清楚地了解我解决问题的方法,然后一步进行类似的操作步骤,找到一个合理的时间框架内可计算最终的最佳解决方案。

莱克斯·弗里德曼:当你探索最佳的解决方案时,业界就在想,以追求最佳的解决方案是如何重视?此外,最好的解决思路,多年来一直追求改变。

莱斯利Kaelbling:这很有趣,从理论上讲,我们实际上有一个小方法危机。我的意思是,我认为理论是对很多事情我们都做的非常重要的。

现在已经有很多经验丰富的黑客攻击,和他们进行培训和编号。我们因此很难说是好是坏。如果你担心计算机科学理论,你会发现,一段时间来讨论讨论后,大家将讨论优化问题。人们关注的是如何找到结合遗憾(后悔绑定),如何执行问题的近似解是如何证明近似解,所花费的时间越长,越靠近最终的最佳解决方案。

我认为更有趣的是,对于非常高的程度问题的难度,我们没有创造一个良好的“近似解”的概念。我个人比较喜欢研究非常棘手的问题,我希望能建立某种形式的解决方案的概念,这样我就可以判断这个算法是有一定的作用,所以我知道它可以用它做除了运行点别的东西。

莱克斯·弗里德曼:所以,在一定程度上,我们有一些怎样的概念有很深的吸引你,你可以用这些概念来更好地看到某些事情,并期待着这些东西可以带来良好的效果给你。

莱斯利Kaelbling:科学与工程学科在那里,但我认为两者是不一样的。我认为,我们正在做的工程取得跨越式发展,这是在科学领域继续前进。但如何开发它在未来,大致如何以及为什么工作,没有人知道。我们需要的工程问题转化为科学的问题,我们需要知道如何工程学原理,为什么工作,如在以前的时候,如果人们真的想建立一个桥梁,建立,现在我们并不需要去真正建立桥梁,将能够预测哪些看起来像梁桥建成后,。这些都是我们的学习系统,并可以应用到机器人。

莱克斯·弗里德曼:您从人工智能,智能系统和机器人唯物主义的观点预期? 信念空间(信念空间)所涉及的MDP和状态空间(状态空间)的区别是什么?它是由世界的状态的推理,这种信念空间它?

莱斯利Kaelbling:信念空间不说,不管世界的现状是什么,所以试图让机器人来控制这些国家,我将它理解为世界如何发展的概率分布,所以控制不再是一个问题如何控制在这个世界机器人行走的问题,这个问题成为一个控制信念,我采取行动这种行为不仅考虑什么影响现实世界中,还要考虑它会产生什么样的影响我自己对世界的理解。这可能会迫使我问一个问题:什么是国家并没有真正改变这个世界,但它会改变我的信仰的世界?我将汇集的信息作为决策因素的基础。

莱克斯·弗里德曼:这是增强探索推理和情报机构的世界的能力非常强大的方式。当你面对任何问题,可以考虑信念空间使用,在什么情况下会只考虑状态空间?

莱斯利Kaelbling:事实上,大多数的问题都需要有意识地收集信息。在一些问题,如棋不确定性,但对对手的不确定性可能存在,所以没有对国家的不确定性。即使是一些不确定性的问题,但你可以去收集信息过程中的问题解决。例如,当你驾驶的自动车程,它并不完全知道在哪里住,但是它在光线变化的长期被理解的信息,这时候你就不需要收集信息; 但是当你开车时是在路上,你必须看路旁边,你的背后,需要决定等等,你需要衡量这些信息的值,其在开放的道路一侧,以及选择什么样的信息收集和合理的区别。

此外,你采取行动之前,你还需要考虑自身的不确定性。如果我知道,我站在正对着门框,我就能顺利通过门。但是,如果我不知道在哪里的门的位置,最好不要立即介入过去,但必须先进行评估。

莱克斯·弗里德曼:你的世界不确定性的水平,其实,你需要优化规划过程的一部分形成。你能描述的是,我们如何使用分层规划的方式来做到这一点世界的规划?机器人距离真正实现事做规划还有很长的路要走。

莱斯利Kaelbling:在分层推理推理中使用,包括时间和空间层次分层。让我们来谈谈时间分层。在此之前的实施过程需要很长的时间,而时间可能是分层的抽象这个过程分为几个部分。之前我们已经谈到,如果你能在状态空间抽象的建造时间,你就可以进行高层次的规划,比如,我想去镇上,然后再加油的车,然后我会在这里做什么,等。等待。可以推断的依赖和对这些行为的约束,而不需要考虑的所有方式。

在分层规划,我们需要做的是为抽象,使高层次的规划。我认为,这个过程是非常灵活的,它并不需要考虑的因素所有的细节,但我认为这是一个非常有趣的一步。我喜欢这样的场景为例机场,例如,你可以计划前往纽约,到达目的地机场后,便到了办公室,但你不能说在机场发生的事情在你前面,这可能是因为你懒得再想,但更多的还是因为你没有足够的信息来推断你登机门谁在这,坐在你面前是那么的这些东西。

因此,太详细的计划是没有意义的,但你必须跨越的信念,你就能发现那里的一切。有人说,我终于学会了他生命中的困难,预计实现某种类型的子目标。我想,如果你是在中间的这些步骤完成的地方,这是至关重要的是不是一个模式,你将不能够做规划。

现在我们将讨论一两件事,那就是如何推广你有没有经历过这些情况,以预测,例如,通过吉隆坡国际机场多久。因此,对于这种抽象模型,我真的很感兴趣,一旦我们已经创建了这些模型,我们可以利用这些模型做分层推理,我觉得这是非常重要的。

莱克斯·弗里德曼:就像你刚才提到的,一旦你在机场,你离目标只有几步之遥。你能解释一下这个目标的出发点右键?

莱斯利Kaelbling: 赫伯西蒙在早期人工智能的方法从正向推理和反向推理收集的结果谈到从结果出发。人们凭直觉认为状态空间很大数量的行为,也可以采取很多的。例如,我坐在那里,在那里我要搜索什么我能做的就是状态空间前,可以采取行动的数量是巨大的。

如果你能在另一个层面推理,比如,我们希望能达到既定目标,知道如何实现这一目标,这个问题的范围更小。有趣的是,AI现在规划领域没有解决知这些问题,他们现在倾向于使用一种或多种方法来从结果正向推理,对从结果开始反向推理的研究很少做出更好的成绩。这是某种我的直觉,我能立刻无法证明给你看。

莱克斯·弗里德曼:尊敬你分享你的直觉告诉我们。你认为该领域的AI之前,需要智慧的哲学观点?有多难,你认为会是人类生活的一部分或计划的生活中养成了一个问题?当你从事机器人研究,你经常考虑的是操作对象,对象移动的任务,那么你会得到走出实验室机器人的走出去,做午饭,追求更加高远的目标是?您如何看待这个问题?

莱斯利Kaelbling:我认为这种想法是错误的,其实,人的生命是不是所有的编程问题。你可能会觉得,将你的生活是非常重要的各个部分整合,但在这些地区的理由,代表性和学习风格有很大的不同方面。我们都知道,一个人不能总是这样或那样的,人的大脑并不总是相同的,所有的东西都是如此,它们的组件,子架构,使不同。所以我个人认为,我们没有理由期待,就会有一个算法实际上可以完成整个任务。

莱克斯·弗里德曼:我们现在所能做的,只是设计用于特定问题的具体算法。

莱斯利Kaelbling:这就需要考虑的问题类型,例如,可能需要在图像空间中的一些推理。我想再提一点东西,推理只是一个强化学习问题,认为它可能会基于模型,它不能基于模型。人们可能还在谈论他们是否应该学习的 - 我们可以学习策略直接产生的行为,还可以学习的目标函数的值,或了解一个过渡模式和一些世界的动态信息可以告诉我们什么。例如,当我旅行时,当我得知想象一个过渡模式,将与规划相结合,然后周围画一个框,我可以学习的策略,而这种策略存储在不同的方式。与其他的策略,它只是一个策略。

我喜欢它随着时间和空间的计算之间的权衡。在一方面,一个更加开放的政策表示,它可能需要占用更多的空间,但我可以快速计算出应采取的行为; 在另一方面,采用了非常紧凑的世界动态模型加一个策划,我可能只是会比较慢,计算的行为要采取旁。我认为这是没有争议的,它只是一个问题,“对我们来说,最好的,其中以的形式计算”。

例如,做一些代数推理操作是合适的,但是如果面对这样的任务是控制独轮车,要求其响应时间,但也有许多小的决策空间,我们可能需要在这个时候不同的表示。列举的只是例子,不一定适合。

(本文是第一部分,第二部分阅读,请访问:https://开头WWW。leiphone。COM /新闻/ 201904 / XAt6Paa6u28uQyvO。HTML)

会议召开IJCAI 2019之前,特邀发言人名单将陆续公布,雷锋网AI技术评论作为IJCAI 2019特殊的媒体合作伙伴,将继续为您带来报道为大家邀请报告。届时,雷锋网AI技术评论也赶到现场为您带来精彩的报告,敬请期待!

雷锋网原创文章,未经授权禁止转载。详情转载注意事项。


二维码