多主体的研究与应用是近年来备受关注的热点领域,多主体强化学习理论与方法、多主体协作策略的研究是该领域重要研究方向,其理论和应用价值极为广泛,备受广大从事计算机应用、人工智能、自动控制、以及经济管理等领域研究者的关注。本书清晰地介绍了多主体、强化学习及多主体协作等基本概念和基础内容,明确地阐述了有关多主体强化学习、协作策略研究的发展过程及*新动向,深入地探讨了多主体强化学习与协作策略的理论与方法,具体地分析了多主体强化学习与协作策略在相关研究领域的应用方法。全书系统脉络清晰、基本概念清楚、图表分析直观,注重内容的体系化和实用性。通过本书的阅读和学习,读者即可掌握多主体强化学习及协作策略的理论和方法,更可了解在实际工作中应用这些研究成果的手段。 本书可作为从事计算机应用、人工智能、自动控制、以及经济管理等领域研究者的学习和阅读参考,同时高等院校相关专业研究生以及人工智能爱好者也可从中获得借鉴。
多主体的研究与应用是近年来备受关注的热点领 域,多主体强化学习理论与方法、多主体协作策略的 研究是该领域重要研究方向,其理论和应用价值极为 广泛,备受广大从事计算机应用、人工智能、自动控 制、以及经济管理等领域研究者的关注。孙若莹、赵 刚所著的《多主体强化学习协作策略研究》清晰地介 绍了多主体、强化学习及多主体协作等基本概念和基 础内容,明确地阐述了有关多主体强化学习、协作策 略研究的发展过程及*新动向,深入地探讨了多主体 强化学习与协作策略的理论与方法,具体地分析了多 主体强化学习与协作策略在相关研究领域的应用方法 。 全书系统脉络清晰、基本概念清楚、图表分析直 观,注重内容的体系化和实用性。通过本书的阅读和 学习,读者即可掌握多主体强化学习及协作策略的理 论和方法,更可了解在实际工作中应用这些研究成果 的手段。本书可作为从事计算机应用、人工智能、自 动控制、以及经济管理等领域研究者的学习和阅读参 考,同时高等院校相关专业研究生以及人工智能爱好 者也可从中获得借鉴。
chapter 1introduction1.1reinforcement learning1.1.1generality of reinforcement learning1.1.2reinforcement learning on markov decision processes1.1.3integrating reinforcement learning into agent architecture1.2multiagent reinforcement learning1.2.1multiagent systems1.2.2reinforcement learning in multiagent systems1.2.3learning and coordination in multiagent systems1.3ant system for stochastic combinatorial optimization1.3.1ants forage behavior1.3.2ant colony optimization1.3.3max-min ant system1.4motivations and consequences1.5book summarybibliographychapter 2reinforcement learning and its combination with ant colony system2.1introduction2.2investigation into reinforcement learning and swarm intelligence2.2.1temporal differences learning method2.2.2active exploration and experience replay in reinforcement learning2.2.3ant colony system for traveling salesman problem2.3the q-acs multiagent learning method2.3.1the q-acs learning algorithm2.3.2some properties of the q-acs learning method2.3.3relation with ant-q learning method2.4simulations and results2.5conclusionsbibliographychapter 3multiagent learning methods based on indirect media information sharing3.1introduction3.2the multiagent learning method considering statistics features3.2.1accelerated k-certainty exploration3.2.2the t-acs learning algorithm3.3the heterogeneous agents learning3.3.1the d-acs learning algorithm3.3.2some discussions about the d-acs learning algorithm3.4comparisons with related state-of-the-arts3.5simulations and results3.5.1experimental results on hunter game3.5.2experimental results on traveling salesman problem3.6conclusionsbibliographychapter 4action conversion mechanism in multiagent reinforcement learning4.1introduction4.2model-based reinforcement learning4.2.1dyna-q architecture4.2.2prioritized sweeping method4.2.3minimax search and reinforcement learning4.2.4rtp-q learning4.3the q-ac multiagent reinforcement learning4.3.1task model4.3.2converting action4.3.3multiagent cooperation methods4.3.4q-value update4.3.5the q-ac learning algorithm4.3.6using adversarial action instead o{ ~ probability exploration4.4simulations and results4.5conclusionsbibliographychapter 5multiagent learning approaches applied to vehicle routing problems5.1introduction5.2related state-of-the-arts5.2.1some heuristic algorithms5.2.2the vehicle routing problem with time windows5.3the multiagent learning applied to cvrp and vrptw5.4simulations and results5.5conclusionsbibliographychapter 6multiagent learning methods applied to multicast routing problems6.1introduction6.2multiagent q-learning applied to the network routing6.2.1investigation into q-routing6.2.2antnet investigation6.3some multicast routing in mobile ad hoc networks6.4the multiagent q-learning in the q-map multicast routing method6.4.1overview of the q-map multicast routing6.4.2join query packet, join reply packet and membership maintenance6.4.3convergence proof of q-map method6.5simulations and results6.6conclusionsbibliographychapter 7multiagent reinforcement learning for supply chain management7.1introduction7.2related issues of supply chain management7.3scm network scheme with multiagent reinforcement learning7.3.1scm with multiagent7.3.2the rl agents in scm network7.4application of the q-acs method to scm7.4.1the application model in scm7.4.2the q-acs learning applied to the scm system7.5conclusionbibliographychapter 8multiagent learning applied in supply chain ordering management8.1introduction8.2supply chain management model8.3the multiagent learning model for sc ordering management8.4simulations and results8.5conclusionsbibliography
《内在的星空:余秋雨人文创想》内容简介:★文化导师余秋雨读行四十年感悟精粹,撷选创作生涯二十余部名作智慧结晶 ★兼具辞彩之胜
本书是继《设计中的设计|全本》之后,广西师范大学出版社推出的全新的原研哉著作。SENSEWARE是原研哉同TOKYOFIBER合作的一个延续
《中国文化企业品牌案例》内容简介:本书以国内文化企业为关注对象,以文化企业的核心竞争力与商业模式为研究中心,精心选取国内文
如果你对万事万物的运行方式充满好奇,这本有趣的《R和Ruby数据分析之旅》会帮你找到日常生活中某些问题的真正答案。借助基本的数
《美国时装画技法》在编排时,实例练习均安排在双页上,以便学习者在使用时能完整地观察到全部绘画过程。为了省时省力,重点均放
《人类还能好好合作吗》内容简介:这是一本关于合作的书。合作是我们这个物种的超能力,是人类不仅能够生存下来,而且几乎在地球上
《世风日上》内容简介:雪球创始人方三文和聪明投资者“聊”出来的智慧。关于炒股通过炒股实现财务自由,既是立身,也是立业,又是
《让听得见炮声的人决策:任正非的华为管理之道》内容简介:本书全面梳理、总结了任正非的管理思想、经商智慧,让读者可以深入了解
全书用5章来介绍Axure软件的使用方法,包括Axure的介绍及安装、Axure的窗口及常用部件、交互事件及动作,以及实战交互案和整站案
《武侠数学》内容简介:石器时代的原始人怎样数数?零和阿拉伯数字是怎样产生并传入中国的?古人怎样理解小数和负数?祖冲之用什么
鲍勃张,1993年毕业于延世大学经济专业。在经历了一段平凡无奇的公司生活后,于2005年的一天开始接触绘画。在那之后,他自己发布
关于作者JasonMcC.Smith,2005年毕业于北卡罗莱纳州立大学教堂山分校,获计算机科学博士学位。该校也是元素模式的诞生地,元素模
《射频通信电路》主要介绍射频电路的设计特点,在设计中应考虑的问题以及射频部分各模块的设计方法。全书分为射频电路设计基础知
《系统安装、维护及故障排除实战》内容简介:本书由资深计算机硬件工程师精心编写,讲解了安装操作系统前的准备、分区与格式化硬盘
React Native-用JavaScript开发移动应用 本书特色 react native是当前移动端开发中的优秀解决方案。《react native:用...
《水彩风景写生》内容简介:本书是作者黄华明近年来带学生外出写生实习,进行水彩风景写生教学与实践经验的总结。本书主要内容包括
Thepurposeofthisbookistohelpyouunderstandhowtoprogramshared-memoryparallelmachin...
《互联网商规11条》内容简介:21世纪,对于全球各地商业界而言最重要的问题是:我们将如何应对互联网?全美国最有资格回答这个问题
《随波逐源》内容简介:本书是作者在追寻生命和物质本源的基础上,探寻人生意义过程中的一些认识及体会,书中汇集了作者对于人生观
Programmersloveitsflexibilityandspeed;designersloveitsaccessibilityandconvenienc...