캐나다가 제안한 온라인 피해 방지법은 전 세계적으로 규제를 형성할 수 있습니다.
캐나다는 최근 전 세계적으로 인공 지능이 규제되는 방식에 중요한 영향을 미칠 수 있는 새로운 온라인 피해법(Online Harms Act)에 대한 계획을 공개했습니다. 제안된 법률은 대형 기술 플랫폼에 알고리즘과 AI 시스템에 의해 증폭되는 유해 콘텐츠를 최소화할 의무를 부여합니다. 딥페이크, 증오나 폭력을 조장하는 콘텐츠 등 문제가 있는 영역의 확산을 억제하는 것이 목표입니다.
온라인 피해법(Online Harms Act)의 핵심 요소는 딥페이크와 같이 AI가 생성한 은밀한 이미지의 배포를 목표로 하며, 이러한 이미지는 24시간 이내에 제거되어야 합니다. 그러한 콘텐츠를 만드는 것 자체가 불법은 아닐 수 있지만, 콘텐츠를 배포하는 데 도움이 되는 소셜 미디어 네트워크는 실제 사회적 위험을 초래합니다. 광범위하고 정의되지 않은 AI 위험 대신 플랫폼에 초점을 맞춤으로써 새로운 법률은 새로운 피해를 관리하는 데 실용적인 접근 방식을 취합니다.
이것이 글로벌 AI 거버넌스를 어떻게 형성할 수 있을까?
온라인 피해법은 기업에 AI 증폭의 위험을 완화하도록 요구함으로써 모호한 개념이 아닌 확립된 기관을 통해 첨단 기술을 규제하는 모델을 제공합니다. 채택되면 개인 정보 보호, 동의, 사이버 괴롭힘과 같은 문제에 대한 기존 규칙을 인공 지능의 새로운 과제에 맞게 조정하는 국제 표준에 영향을 미칠 수 있습니다. 이 법안은 빠르게 발전하는 기술에 대한 우려를 완화하기 위해 균형 잡힌 피해 중심 경로를 제공합니다.
전문가들은 캐나다의 새로운 온라인 피해법(Online Harms Act)이 정책 입안자들이 확립된 인터넷 거버넌스를 통해 실질적인 피해를 해결함으로써 복잡한 AI 문제와 씨름을 시작할 수 있는 방법을 보여준다고 주장합니다. 알고리즘과 생성 모델이 계속 발전함에 따라 이와 같은 결과 기반 프레임워크는 과도한 접근을 피하면서 대중의 신뢰와 책임을 구축하는 데 중추적인 역할을 할 수 있습니다. 제안된 법의 접근 방식은 전 세계 정부가 책임 있는 인공 지능 개발을 보장하려고 노력함에 따라 귀중한 교훈을 담고 있습니다.