武汉信息网
loading
免费发布信息
·武汉 [切换]
    信息分类
    武汉敖包副业网 > 武汉热点资讯 > 武汉智能机器人 >  演讲直击|?罗培新:人工智能的价值位序

    演讲直击|?罗培新:人工智能的价值位序

    时间:2022-09-08 13:25:54  编辑:敖包信息网  来源:敖包网  浏览:18021次   【】【】【网站投稿

    人工智能的价值位序
    没有人会怀疑,人类之所以是万物之灵,是因为人类是唯一会思考的生灵。其他的生物,或许能够自由行动,甚至比人长得更高、跑得更快、体格更强,但仍然不足以取代“人类是万物之灵”这一命题。以法律的语言来描述,人类是能够以自己的意思表示来设立、变更、终止民事法律关系的唯一物种。这在民法典第133条中,有切近的表述。
    人工智能,能够颠覆这一命题吗?
    没有人会否认,人工智能,在相当多的应用场景中,能力已经完胜人类。他们比我们算得更准,跑得更快,甚至可以不知疲倦地工作。早在1950年,英国学者阿兰•图灵(alan turing)发表的一篇具有划时代意义的论文《计算机器与智能》,提出了“机器是否能够具有思维”的重大问题。智能机器与自动化机器设备相比,有两个显著不同:其一,它们被赋予了更多的决策权,不再是有限决策或完全被预先设定路线或程式的功能机器;其二,它们被要求在更加复杂、充满不确定性的环境中运行,不仅要和其他各种类型的机器互动,而且要与人类或动物产生互动。
    然而,人工智能,终究不是法律主体,仍然是一堆人类制造的电子或者量子元器件,即使将来出现以dna等生物分子作元器件的ai,亦不过是一堆人为的物质聚合体,目前没有任何证据证明除人类之外,其他人为的无机、有机复杂聚合体达到一定的复杂性时能够产生智慧。
    因而,人工智能,在法律上,仍然只是客体,其权利能力,即可以做什么不可以做什么,仍然由人类来决定。而人类在做出决定之时,经常会面临价值判断问题。
    审议中的《上海市促进人工智能产业发展条例(草案)》第4条(发展目标与原则)规定:本市人工智能产业发展应当坚持以人为本、科技向善……
    而什么是“以人为本”,如何做才是“向善”,本身也是充满争议的问题。
    例一:外卖送餐
    2020年9月《外卖骑手,困在系统里》一文报道:
    外卖平台有一种算法,从顾客下单那一秒起,系统便开始根据骑手的顺路性、位置、方向等,决定派哪一位骑车接单。如果一个骑手背负5个订单、10个任务点,系统在11万条路线规划可能中完成“万单对万人的秒级求解”,规划出最优配送方案。虽然对于顾客来说,这种算法可以使他们在最短的时间里拿到外卖,但对于骑手来说,时间压力与劳动强度不断提高。出于平台、骑手和用户三方效率最大化的目标,人工智能算法将所有时间压缩到了极致,为了按时完成配送,骑手们只能用超速来挽回超时。超速、闯红灯、逆行等逆算法是骑手们长期在系统算法的控制与规训下不得已的做法。
    这里产生的价值冲突:其一,顾客最短时间享用食物的价值;其二,骑手的生命健康权;其三,路人的安全价值。求解之道,就是在最优算法之外,多给予五分钟的宽忍时间。另外,还值得思考的深层问题在于,以送餐的便利培养民众外卖的习惯,是我们应当追求的价值吗?
    例二:人机互动
    机器人照顾老人,会带来一些便利,但与此同时,老年人的精神健康本质上依赖于人类保姆与家人的接触,将护理任务推卸给机器人而减少本来可以安排的亲近会面,会给老人带来自卑、恐惧等负面心理。解决方案:自然人与智能机器人应当做好分工。智能感应器在帮助人类护理员方面前景很好,可以通过自动监测药物剂量和自动核对安全检查清单,而人类护理员可以将更多的精力放在建设与被护理者之间的关系上。
    例三:自动驾驶
    在自动驾驶领域,价值判断或者伦理选择,是规则设计首先面对的问题。在设计自动驾驶系统时,如果在紧急情况下不得不发生碰撞,系统应选择保护车上的人还是保护路人?因而,立法应当介入这一本属市场领域的事项,设定强制性规则。除了公共利益的考量之外,另一理由是,驾车的人享受了自动驾驶带来的便利,也应当承担由此带来的风险。
    例四:脑机接口
    人机混合智能技术,可以增加人的记忆,短时期内提高智商,产生“有增强”和“无增强”两种新类型的人。前者通过植入脑机接口,瞬间智商爆表,北大、清华轻而易举,哈佛、耶鲁也不在话下,这里产生了两个问题:其一,社会公平问题。其二,人的自主性问题。我认为,有关人格权的民事规范,或许将来在这方面有所反映。
    所幸的是,《上海市促进人工智能产业发展条例(草案)》对于人工智能的伦理问题,设了若干条款,其中,第63条(人工智能伦理委员会)规定,本市设立人工智能伦理专家委员会,推动建立人工智能领域伦理道德自律规范,对涉及生命健康、公共安全等重点领域人工智能应用的潜在风险开展评估。本市鼓励相关主体开展人工智能电子人格、情感交互等前沿理论研究,推进人工智能相关主体权利义务配置、责任承担等问题的解决。
    第64条(开发者伦理规范)规定,本市支持人工智能伦理专家委员会指导有关行业组织、企业等,制定人工智能产品研发设计人员道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。
    总之,在人工智能能力增强的同时,我们必须同步完成“道德增强”的过程,这是一个提升道德认知、动机和行为的过程,我们必须从生命本原的角度来理解何为人生,以及在自然状态下奋斗的意义与价值,只有这样,我们才能更好地拥抱人工智能时代。


    【重要提醒】

    ↘↘点我免费发布一条武汉本地便民信息↙↙(微信搜索13717680188加小编好友,注明武汉,免费拉您进群聊),优先通过审核。内容来源网络如有侵权请联系管理员删除谢谢合作!

    敖包副业网

    最新便民信息
    13717680188