从先进的人工通用智能(AGI)中受益的过程是怎么样的
人工智能的创立是许多人工智能专家的终点。一个 AGI 智能体可以用来解决世界上无数的问题。例如,你可以把一个问题介绍给一个 AGI 代理,而 AGI 可以利用深度强化学习和它新引入的新兴意识来做出现实的决策。
AGI 算法和传统算法的不同之处在于,AGI 可以问自己一些重要的问题。AGI 可以计算出它想要达到的最终解决方案,模拟假设的到达方法,然后明智地决定哪一个模拟现实与设定的目标最匹配。
自从 1956 年达特茅斯会议首次提出 "人工智能" 一词以来,人们一直在争论 AGI 是如何产生的。自那以后,许多公司都试图迎接 AGI 的挑战,而 OpenAI 可能是最受认可的公司。OpenAI 作为一个非营利组织于 2015 年 12 月 11 日成立,其使命是确保人工智能(AGI)-- 一个高度自治的系统 -- 在经济价值最高的工作中超越人类,造福全人类。
OpenAI 任务声明清楚地概述了 AGI 可以给社会带来的潜在好处。突然之间,对人类和传统人工智能系统来说过于复杂的问题现在可以解决了。
发布 AGI 的潜在好处是天文数字。你可以宣布一个治愈各种癌症的目标,然后 AGI 可以连接互联网,以每种语言扫描所有当前的研究。AGI 可以开始开发解决问题的方案,然后模拟所有可能的结果。它将把人类目前意识到的优势与对云的无限了解结合起来,利用深入学习来识别这些大数据,并使用强化学习来模拟不同的环境 / 结果。所有这些,再加上不需要休息的感觉,都可以 100% 地集中在手头的任务上。
它的缺点是不断升级的原子系统,这个目标不可能永远吞噬它的潜在资源。尼克·博斯特罗姆教授在他的著作 "回形针最大化器"(The Maximer OF 回形针)中详细讨论了这一理论,在这种情况下,被错误配置的 AGI 被指示生产回形针,直到什么都不剩,地球上的几乎所有资源都被消耗,以最大限度地生产回形针。
更现实的观点是,AGI 可能被流氓国家或道德低下的公司控制。这个实体可以让 AGI 程序实现利润最大化,在这种情况下,如果编程不好,没有悔意,它可以选择破产的竞争对手,摧毁供应链,入侵股票市场,清算银行账户等等。
因此,从一开始就需要在 AGI 中对伦理学进行编程。许多人都在争论道德准则,作者艾萨克·阿西莫夫(AIDS Assimov) 首次以机器人 3 定律的形式向普通人介绍了这一概念。
机器人的三条定律存在一些问题,因为它们可以用不同的方式加以解释。在我们之前接受查尔斯·J·西蒙(CharlesJ.Simon) 的采访时,"计算机抵抗" 一书的作者查尔斯·J·西蒙(Charles J.Simon) 说," 我们讨论了 AGI 中的伦理编程。
2020 年 4 月 7 日,大脑模拟器 II 向公众发布。这个版本的大脑模拟器允许实验进入不同的人工智能算法,创建一个端到端的 AGI 系统,包括视觉、听觉、机器人控制、学习、内部建模,甚至规划、想象力和远见。
Simon 解释道:" 直接解决认知问题的新的、独特的算法是帮助人工智能发展为 AGI 的关键。
西蒙指出:"大脑模拟器 II 将视觉和触觉结合成一个单一的心理模型,并在理解因果关系和时间流逝方面取得了进展。" 随着模块的增强,越来越多的智能将出现。
大脑模拟器 II 将人工神经网络(Ann) 与象征性人工智能技术连接起来,创造了新的可能性。它创造了由无数突触连接的数百万神经元。
这使各种实体能够研究 AGI 发展的可能性。
任何对脑模拟器 II 感兴趣的人都可以通过下载软件、推荐新功能,甚至添加定制模块来跟踪或参与开发过程。
与此同时,新冠肺炎病毒最近扰乱了社会。如果我们有了 AGI 系统,我们就可以利用这个 AGI 系统,快速确定如何阻止新冠肺炎的传播,以及更重要的是如何治疗患者。尽管使用 AGI 帮助疫情可能为时已晚,但 AGI 可能是我们未来爆发疫情的最佳工具。