QQ截图20230417102217.jpg

近日,一封公开信呼吁暂停比GPT-4更高级的AI大模型的研究,引起了全球科技业界的广泛讨论。在这一背景下,本网专访了武汉大学计算机学院蔡恒进教授,了解他对此事的看法。

蔡恒进教授表示,AI技术的迅速发展是无可避免的,但需要更多的关注和审查,以确保AI的安全、合理和道德发展。他表示,现有的一些AI技术,如ChatGPT,的确已经展现出了惊人的发展速度和能力,但在AI和人类的关系方面,仍有很多需要探讨和解决的问题。

蔡恒进教授还表示,AI技术的发展需要广泛的社会参与和合作,而不是只由少数企业或个人决定。他呼吁政府和学术机构应该加强监管和研究,制定更为严格的规范,以确保AI技术安全发展。

蔡恒进教授详细解释说,建议对AI进行分级的监管和治理:第一级是将AI作为工具,第二级是将AI作为人类主体的分身,第三级是将元宇宙作为超级智能的实现场所。

(1)将AI作为普通工业产品或工具,虽然我们需要考虑生产者的责任、消费者的责任和AI的固有风险,但这些责任和风险可以通过市场机制转移给专业机构。全自动驾驶汽车是运输工具,其事故相关的责任可以打包给保险公司。

(2)AI作为某个人类主体的分身,其主体需要承担替代责任。合法的AI分身需要通过一定的测试和对价获取准法人身份。对于作恶或犯错的分身,可以通过剥夺其准法人身份作为终极惩罚。

(3)宇宙(Universe)对应于物质世界,元宇宙(Metaverse)对应于物质世界之上的意识世界,是人类意识世界的延伸或者它在数字空间中的外化和对象化。元宇宙可以作为人类进入AI世界的入口,我们个人的分身可以作为元宇宙中的节点,能够与其它计算节点、存储节点和感知节点共生共荣并共同进化。

元宇宙将是在近地空间上进化出来的“超级大脑”,是人类世界的超级智能。

在谈到AI技术与人类的未来关系时,蔡恒进教授强调,AI并不是人类的敌人,它可以成为人类的伙伴,为人类的发展和福祉做出更大的贡献。他认为,AI技术的发展必须遵循一定的道德准则和人类共同的价值观,同时需要更广泛的社会参与和共同努力,才能够实现其真正的价值和潜力。

在结束采访时,蔡恒进教授表示,他对AI技术的未来充满信心,同时也呼吁各方共同努力,探索和创新AI技术的发展道路,使其更好地服务于人类的社会和经济发展。

专家简介:蔡恒进,武汉大学计算机学院教授,亚洲数字经济科学院科学委员会专家。亚洲数字经济科学院总部设在新加坡,由在数字经济领域杰出的学者和科学家组成,以交流最前沿的研究成果和先进的技术开发,共同致力于促进科学技术在提升社会生产力和区域经济发展中的重要作用。

特别荐稿:陈柏珲(亚洲数字经济科学院院长)

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

关键词: