要解决人工智能面临的伦理瓶颈,还必须承认矛盾的普遍存在,在人机交互试验中求同存异。一方面,不仅要重视不同文化间潜在的共性与联系,更不能忽视区域因素带来的文化上的差异。不同文化的形成、传播与扩散方式,决定了文化间碰撞时的相互联系、相互制约、相互作用与相互转化。积极研究文化间“和而不同”、甚至“不和”的因素,是将抽象的人机对话转化为机器人具体、独立地进行“人性化作业”的必由之路。另一方面,不仅要追求计算机性能与人类需求的最大交集,更要敢于面对人机之间看似不可逾越的鸿沟。只有深入研究和掌握人类思维模式与机器思维模式的相异之处,才能为消弭人机矛盾打造坚实的基础,才能深化对人工智能的探索,将认识从感性层面提升到理性层面。
最后,要解决人工智能面临的伦理瓶颈,必须明确主体的伦理需求,实现主体与客体的统一。马克思主义认为,明确主体自身需要是主客体统一的前提。客体“应怎样”,从根本上取决于主体“要什么”。有趣的是,我们希望机器人能够提供客观公允的服务,但是却无法提供一套放之四海而皆准的规范,甚至我们自己都常常在道德选择题前手足无措,不是吗?机器人铁面无私地执行芯片上的伦理判断,并对人类的伦理学进行监督和质疑:人类究竟要追寻怎样的伦理标准?难道许多符合伦理标准的行为无法得到人类情感的辩护吗?难道一些明显的禁锢新思想的旧伦理不该被取缔吗?幸亏机器人不发问,否则我们何其汗颜。如果有一天,人工智能发展到可以体验人类情感的地步,机器人能够运用自己的思维而不是伦理芯片进行道德判定,在这“第三双眼睛”的监视下,我们能否会像自己宣称的,做到绝对的公正与公平?
不过话说回来,也许真到了机器人能够“辩证的决策”的那一天,它们会替我们给出关于这些问题最完美的解答,谁知道呢?
不过话说回来,也许真到了机器人能够“辩证的决策”的那一天,它们会替我们给出关于这些问题最完美的解答,谁知道呢?
共0条 [查看全部] 网友评论