2024-04-27 19:30 (토)
글로벌 연합, 안전한 AI 개발 위한 보안 강화 가이드라인 발표
상태바
글로벌 연합, 안전한 AI 개발 위한 보안 강화 가이드라인 발표
  • 길민권 기자
  • 승인 2023.11.28 13:02
이 기사를 공유합니다

미국, 영국, 16개 국제 파트너로 구성된 컨소시엄이 획기적인 협력을 통해 인공 지능(AI) 시스템의 보안을 강화하기 위한 선구적인 가이드라인을 발표했다. 안전한 AI 개발 관행을 육성하고 사이버 보안에 중점을 두고 기술이 배포되도록 하겠다는 약속을 강조하고 있다.

미국 사이버보안 및 인프라 보안국(CISA)은 보안 결과에 대한 고객 소유권을 우선시하고, 근본적인 투명성과 책임성을 수용하며, 안전한 설계가 우선시되는 조직 구조를 구축하는 것이 중요하다고 강조했다. 목표는 AI 개발을 둘러싼 사이버 보안 표준을 높이고 빠르게 발전하는 기술과 관련된 잠재적 위험을 완화하는 것이다.

국가사이버보안센터(NCSC)는 이 가이드라인이 AI로 인한 위험을 관리하기 위한 미국 정부의 지속적인 노력에 기반을 두고 있다고 강조했다. 여기에는 새로운 AI 도구를 공개하기 전에 엄격한 테스트를 거치고, 편견과 차별과 같은 사회적 우려를 해결하기 위한 안전장치를 구현하며, 개인정보보호 문제를 해결하는 것이 포함된다. 또한 이 가이드라인은 소비자가 AI로 생성된 자료를 식별할 수 있는 강력한 방법을 수립하여 투명성과 책임성을 보한다.

가이드라인에 명시된 약속의 핵심 중 하나는 기업이 AI 시스템의 취약점을 제3자가 쉽게 발견하고 보고할 수 있도록 해야 한다는 것이다. 이는 잠재적인 보안 결함을 신속하게 식별하고 해결할 수 있는 버그바운티 프로그램의 시행을 통해 달성할 수 있다.

이 가이드라인은 AI 시스템 개발 수명 주기 전반에 걸쳐 안전한 설계, 개발, 배포, 운영 및 유지보수를 포괄하는 '설계에 의한 보안' 접근 방식을 강조한다. 조직은 시스템에 대한 잠재적 위협을 모델링하고 공급망과 인프라를 보호해야 한다는 부분도 강조되고 있다.

이 가이드라인은 기존의 사이버 보안 문제를 해결하는 것 외에도 AI 및 머신러닝(ML) 시스템을 표적으로 삼는 적대적 공격에 대처하는 것을 목표로 한다. 적대적 공격은 모델의 분류를 조작하고, 사용자의 무단 작업을 가능하게 하고, 민감한 정보를 추출하는 등 다양한 방식으로 의도하지 않은 동작을 유발하려고 한다. 이 가이드라인은 AI 영역 내에서 프롬프트 인젝션 공격, 데이터 중독과 같은 다양한 공격 벡터를 방어하는 것이 중요하다는 점을 강조한다.

이 가이드라인의 발표는 안전하고 탄력적인 AI 개발 프레임워크를 구축하기 위한 전 세계적인 노력의 중요한 진전이다. AI가 다양한 분야에서 점점 더 중요한 역할을 수행함에 따라 잠재적인 위협과 취약성을 방지하기 위해서는 보안을 확보하는 것이 무엇보다 중요하다.

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★

■ 보안 사건사고 제보 하기

▷ 이메일 : mkgil@dailysecu.com

▷ 제보 내용 : 보안 관련 어떤 내용이든 제보를 기다립니다!

▷ 광고문의 : jywoo@dailysecu.com

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★