AI法规的未来:为什么皮带比护栏更好
        许多关于 AI 安全监管的政策讨论都集中在建立监管“护栏”以保护公众免受 AI 技术风险的必要性上。 在发表在《风险分析》(Risk Analysis)杂志上的一篇新论文中,两位专家认为,政策制定者应该要求“束缚”,而不是强加护栏。

         宾夕法尼亚大学监管项目主任、宾夕法尼亚大学凯里法学院教授 Cary Coglianese 和圣母大学计算机科学博士候选人科尔顿 R. Crum 解释说,基于管理的监管(一种灵活的“束缚”策略)将比规范性的护栏方法效果更好,因为 AI 的异构性和动态性太强,无法在固定车道内运行。 作者写道,皮带“灵活且适应性强——就像遛狗穿过社区时使用的物理皮带一样,可以进行一系列的运动和探索。 Leashes “允许 AI 工具探索新领域,而不会受到监管障碍的阻碍。

         人工智能的各种应用包括社交媒体、聊天机器人、自动驾驶汽车、精准医疗、金融科技投资顾问等等。 虽然人工智能为社会带来了好处,例如,仅举一个例子,能够找到训练有素的放射科医生可能会错过的癌性肿瘤证据,但它也可能带来风险。

         在他们的论文中,Coglianese 和 Crum 提供了 AI 风险的三个示例:自动驾驶汽车 (AV) 碰撞、与社交媒体相关的自杀和偏见以及 AI 通过各种应用程序和数字格式(如 AI 生成的文本、图像和视频)带来的歧视。

         通过灵活的基于管理的监管,使用在上述环境以及其他环境中构成风险的 AI 工具的公司,将有望通过创建内部系统来预测和减少使用其工具可能造成的危害范围,从而限制其 AI 工具。

         基于管理的监管可以灵活地响应“AI 的新颖的用途和问题,更好地允许技术探索、发现和改变,“Coglianese 和 Crum 写道。 同时,它提供了“一种拴系结构,就像皮带一样,可以帮助防止 AI '逃跑'”。