近日,英国男子休·尼尔森因利用人工智能制作儿童性虐待图像被判处18年监禁,这是英国首次就此类行为定罪。如今,AIGC、自动驾驶及生物识别等人工智能技术在我们生活中的应用场景日益丰富,带给我们极大的便利,然而其技术的滥用和潜在风险也逐渐显现,带来诸多伦理挑战。因此,加强人工智能立法,确保技术发展与人类权益的平衡,显得尤为重要。
首先,明确的人工智能法律能够对利用该技术实施违法行为的个人和企业起到震慑作用。2022年初,我国“AI陪伴”软件侵害人格权案中,法院认定该软件擅自使用自然人形象创设虚拟人物构成侵权,最终运营者向受害者进行道歉赔偿;2024年初,“AI奥特曼作品”案,也是全球首例生成式AI服务侵犯他人著作权的案件判决在广州互联网法院生效……
正如上述AI制作性虐待图像案件中警官所说,这起案件的判决向犯罪分子发出明确信号,利用新技术实施犯罪将面临起诉和监禁。犯罪人在实施涉及AI的犯罪行为前,通常会权衡其可能面临的法律后果,只有明确AI技术在研发、应用、数据处理等各个环节的法律边界和行为规范,明确违法行为的量刑标准和处罚措施,才能够发挥法律的震慑作用,有效减少技术滥用行为。
其次,在人工智能立法中明确责任归属能够推动技术的健康落地与更大范围应用。目前,制约人工智能技术发展的一大因素便是发生事故时的追责问题。例如生成式人工智能发生侵权纠纷时,技术使用者和服务提供者谁是第一责任人?AI诊疗发生误诊造成损失后,谁才是承担责任的主体?没有权威性的法律条文明确案件判决时的责任归属,企业便会担心因技术风险带来的潜在法律责任,从而采取保守策略延缓技术进步。公众也会担心发生纠纷时无法保障自己的权益,从而降低AI技术在生活中的使用。
正有人所指出的,人工智能创新技术和新的产品进入市场,首先需要的是法规的保障。按照人员类型与技术类型进行划分,明确AI系统开发者、使用者、数据提供者在不同应用场景下的责任归属,才能够为人工智能前沿技术的开发和应用减少后顾之忧。
今年5月,欧盟理事会正式批准《人工智能法案》,这是全球首部全面监管人工智能的法规,引领了人工智能治理的新浪潮。9月5日,欧盟、英国、美国及其他国家和组织签署《人工智能与人权、民主和法治框架公约》,这也是全球首个人工智能法律公约。目前,我国的人工智能法草案也被列入国务院2024年度立法工作计划中,人工智能立法准备工作有序进行中。全球范围内,人工智能立法已然成为国际社会的共识。
来源:红网 杨瑞鑫