21世纪经济报道记者 郭美婷 南方财经全媒体记者 冯恋阁 广州报道
3月30日,一封发布自安全机构生命未来研究所的联名信让人们意识到,技术成果日新月异的背后,对人工智能潜在风险和危害的担忧也在与日俱增。“让我们享受一个漫长的 AI 夏天,而不是毫无准备地冲入秋天。”联名信以此为结尾,呼吁暂停相关AI研究,直到各方协商后制定出相关安全协议。
风口浪尖之上,近日,英国政府发布了针对人工智能产业监管的白皮书(下称“白皮书”)。
白皮书提出了监管人工智能的新方法,并概述了监管机构应考虑的5条明确原则,即安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。
受访专家指出,在白皮书提出的五项原则中,透明度和可解释性作为人工智能技术研究和应用的基础,需要得到特别重视。此外,白皮书提出的在现有法律框架下对人工智能治理的思路,以及可信人工智能、监管沙盒等举措,能够在防范潜在风险的同时促进产业发展,对我国未来的人工智能治理有一定借鉴意义。
AI治理的五个原则
“人工智能不再是科幻小说中的东西,其发展惊人,我们需要有新的规则来确保它安全地发展。”英国科学、创新和技术部(DSIT)部长表示。
在白皮书中,DSIT概述了针对ChatGPT等人工智能治理的五项原则,分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。
具体而言,安全性和稳健性指人工智能应用应当以安全和稳健的方式运行,并持续识别、评估和管理风险,监管机构可采取举措确保人工智能系统整个生命周期按预期可靠运行;透明度和可解释性指开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配使用人工智能带来的风险;公平性指人工智能的使用方式应符合英国现行法律,例如《2010年平等法》或英国GDPR,不得歧视个人或创造不公平的商业结果;可竞争性和补救性则指需要有明确的途径来质疑人工智能产生的有害结果或决定。
“透明度和可解释性是技术发展的关键要素,也是人工智能保证可信任度的基础。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括解释道,也因此,其他原则的贯彻实施都以透明度和可解释性为基础。“这也是目前人工智能产业中各参与主体特别关注并投入资源建设的重点区域。”他说。
白皮书显示,英国政府将避免可能扼杀创新的严厉立法,并采取适应性强的方法来监管人工智能。英国计划在其人权、健康和安全以及竞争监管机构之间分配管理人工智能的责任,而不是创建一个专门负责该技术的新机构。
在吴沈括看来,人工智能治理的相关问题和目前现行的法律制度之间存在一定的逻辑关联和事实匹配,因此,现行法律仍能治理人工智能技术的相关问题。
不过他也指出,技术发展过程中出现的算法透明度、人工智能伦理等问题是最初法律制定过程当中难以预见的。“因此我认为,适时研判并引入专项人工智能法律规则有其必要性。”他表示。