美国国家标准与技术研究所发布人工智能风险管理框架

关键要点

  • 国家标准与技术研究所(NIST)推出人工智能风险管理框架和配套手册,旨在帮助组织管理AI技术风险。
  • 该框架源于2020年的国家人工智能法案,详细描述了可信任AI系统的特征,以及组织如何治理、映射、测量和管理AI风险。
  • NIST主任劳里·洛卡西奥(Laurie Locascio)强调国会明确认识到自愿指导的重要性,并将其列为高优先级。
  • 尽管信息技术产业委员会高级政策主管科特妮·兰格(Courtney Lang)将AI风险管理框架视为一种“整体”方法,但来自埃普斯坦·贝克·格林的布拉德利·梅里尔·汤普森(Bradley Merrill Thompson)则认为框架过于宽泛,仅适合作为思考特定产品的风险管理框架的起始点。

国家标准与技术研究所(NIST)最近发布了人工智能(AI)风险管理框架(AIRMF),并提供了一个相关的操作手册,以支持组织有效管理各类AI技术风险。此框架是根据2020年通过的国家人工智能法案而制定,旨在为组织提供一套系统的方法来识别和应对人工智能系统可能带来的风险。

正如NIST的主任劳里·洛卡西奥所指出的,国会明确意识到提供这项自愿指导的重要性,并将其作为优先事项交付NIST。该框架不仅概述了可信任的AI系统应具备的特征,还涵盖了组织如何治理、映射以及管理与AI相关的各种风险。

尽管信息技术产业委员会的高级政策主管科特妮·兰格认为,AIRMF提供了一种“整体”方法来管理AI风险,但布拉德利·梅里尔·汤普森则提出了不同的看法。他指出,该框架过于宏观和通用,实际上仅作为特定产品风险管理框架构思的起点。他认为,试图对所有AI进行准监管会面临挑战,因为不同应用的风险差异极大。

“这就是对所有AI进行准监管所面临的问题。应用差异如此巨大,风险也截然不同。” — 布拉德利·梅里尔·汤普森

整体而言,NIST的这一框架为组织在管理AI风险方面提供了初步的指导,但各机构在实际应用时需要结合具体情况,制定更具针对性的风险管理策略。

相关链接: – –

Leave a Reply

Your email address will not be published. Required fields are marked *