在这些应用过程当中,法律实际上可以去区别基础模型和模型应用两个场景。基础模型,比如案子当中涉及的,可以更快地往前去跑一跑,不用承担那么重的责任。但是如果有应用方把人工智能的工具,比如应用到比较严格、高风险场景的时候,这个时候可能需要法律能够去给它更清晰的标准,比如说特定行业的技术标准,来预防高风险的,或者说给人民群众造成更大意义上的损失。
从法律角度 如何提前化解AI“幻觉”风险
像AI“幻觉”会是AI技术在狂飙突进当中的一个阶段性的产物,还是说会始终伴随AI技术的发展,是一个无法去改变和完全消除的技术缺陷?未来假如是第二种情况的话,那从法律的角度上,怎么样更好地去界定这个权责,能够提前去化解风险?
刘晓春:在技术的原理上看,如果技术基础的模型没有产生本质性变化的话,AI“幻觉”有可能会伴随着人工智能产业一直发展。也不是说不能完全消除,只是说如果要降低“幻觉”,也是要付出相应的成本。可能整个产业需要在某些领域投入更多的成本,去限制或者降低AI“幻觉”。
在法律上其实很重要的是识别出一些随着产业的发展,能看到的一些跟老百姓的生命安全、财产安全等根本利益相关的领域,识别出这些高风险的领域。然后针对高风险,要求产业去投入更多的资本,针对性地去降低“幻觉”。同时包括产业也需要去进行一些提示,特别在一些比较敏感的,比如大家进行情感陪伴,或者把自己很多基础的信赖放在AI上,这个时候是需要建立更清楚的责任的边界,使得产业能够去更好地降低“幻觉”带来的损害。
(来源:央视新闻客户端)