2024-04-28 01:35 (일)
과기정통부, 안전한 AI 활용 모색…첫 국제회의에서 AI・디지털 규범 논의 적극 나서
상태바
과기정통부, 안전한 AI 활용 모색…첫 국제회의에서 AI・디지털 규범 논의 적극 나서
  • 길민권 기자
  • 승인 2023.11.02 14:49
이 기사를 공유합니다

국제 사회에 인공지능 정책, 디지털 권리장전 등 한국의 주요 정책 소개

과학기술정보통신부(이하 과기정통부)는 이종호 장관을 수석대표로 영국 현지 시간 기준 11월 1일에서 11월 2일 양일간 블레츨리 파크에서 열린 인공지능 안전성 정상회의(AI Safety Summit) 프로그램 중 장관회의에 참석하였다고 밝혔다.

인공지능 안전성 정상회의는 인공지능의 안전한 활용을 위한 선도 국가, 기업, 기관 간 협력을 모색하기 위하여 영국에서 처음으로 개최되었으며, 장관회의 1일차에는 전 세계 28개국 인공지능 담당 장관 및 구글, 마이크로소프트, 오픈에이아이, 아마존 등 디지털 선도 기업을 비롯하여 삼성전자, 네이버 등 국내 주요 기업도 함께하였다.

인공지능 안전성 정상회의 프로그램 중 장관회의는 11월1일~2일 이틀 간 진행되며, 1일차에는 28개국 인공지능 담당 장관 및 주요 디지털 선도기업·학계·국제기구가 참석, 2일차에는 28개국 인공지능 담당 장관이 참석했다.

첫째날 장관회의는 ①위험에 대한 이해(△인공지능 오용, △예측할 수 없는 기술 발전, △통제력 상실, △사회통합에 따른 위험요소 등), ②위험 최소화를 위해 할 일(△개발자, △정책입안자, △국제사회, △과학계 등) 등 2가지 세션에 대한 논의가 이루어 졌으며, 참석국 및 기업들은 인공지능의 발전으로 새로운 기회를 얻는 반면 잠재적 위험도 확대되었다는 점에 주목하며 논의를 이어 나갔다.

이종호 장관은 두 번째 세션, ‘②위험 최소화를 위해 할 일(△정책입안자)’에 대한 기조 발언을 담당하며, “AI발전을 위축시키지 않는 범위에서 적절한 AI 신뢰성・안정성을 확보해야 한다.”고 언급하며 아울러 지난 9월 발표한 「디지털 권리장전」 소개 및 한국의 인공지능 윤리·신뢰성 정책을 소개하고, 유엔 산하 인공지능 국제기구 신설 논의도 촉구하였다.

특히, 이종호 장관은 미니 정상회의(mini virtual summit) 공동 개최국 자격으로 마무리 발언도 진행하였다. 미니 정상회의는 1년 뒤에 개최될 제2차 정상회의에 앞서 제1차 정상회의의 후속 조치 상황을 중간 점검하는 목적의 회의로 6개월 뒤 열릴 예정이다.

이종호 장관은 마무리 발언에서 “한-영 공동으로 미니 정상회의를 개최하게 되어 기쁘게 생각한다”며, “한국이 인공지능을 안전하게 활용하기 위한 글로벌 질서 정립 논의를 진전시키는데 책임있는 기여를 다하겠다”고 밝혔다.

한편, 동 회의 참석국들은 공동선언문을 통해 인공지능 위험을 해소하기 위해서는 국경을 초월하는 인공지능 분야 협력이 필요하며, 각 국 정부는 혁신친화적인 규제접근 방식을 고려해야 한다고 발표하였다.

아울러, 첨단 인공지능을 개발하는 모든 주체는 안전성 평가 등을 통해 안전을 확보할 책임이 있으며, 각 국 정부는 국가 간 관련 정책이 상황에 따라 차이가 있을 수 있음을 인식하면서도 투명성을 높이는 것 등을 포함하여 적절하게 협력하기로 합의하였다.

2일차 회의에서는 인공지능의 잠재적 위험성과 관련하여 과학적 근거에 기초한 정책 수립을 위해 향후 국가 간 협력 계획을 논의하고, 국제사회의 평화와 공동번영을 위해 인공지능이 기여할 수 있는 분야를 규명할 예정이다.

과기정통부는 인공지능 안전성 정상회의 기간 동안 EU, 영국, 호주, 싱가포르, 네덜란드, 스위스, 사우디아라비아 등 주요 국가를 비롯하여 앤트로픽, 유엔, 유네스코 등 기업 및 국제기구와 양자 면담을 진행한다고 밝혔다.

양자 면담을 통해 보편적 디지털 질서 마련을 위한 원칙인 ‘디지털 권리장전’ 주요 내용을 공유하고 인공지능을 포함한 글로벌 디지털 규범 수립을 위한 정책 공조를 적극 추진해 나갈 계획이다. 아울러, 스위스 과학기술·정보통신 분야 장관 등 고위급 면담을 통해 2030 세계박람회 부산 유치에 대한 적극적인 지지를 요청하였다고 밝혔다.

<장관회의 공동선언문 전문 번역>

◆인공지능은 세계적으로 엄청난 기회를 제공한다. 인공지능은 인간의 복지, 평화 및 번영을 완전히 탈바꿈하고 확대할 수 있는 잠재력이 있다. 이러한 잠재력을 실현하기 위해, 우리는 공공선을 위해서 인공지능이 인간 중심적이고 신뢰할 수 있으며 책임감 있는 방식으로 안전하게 설계, 개발, 배포 및 사용되어야 함을 확인한다. 우리는 포용적 경제 성장, 지속 가능한 발전, 그리고 혁신을 촉진하고 인권 및 근본적 자유를 보호하며 인공지능 시스템에 대한 대중의 믿음과 신뢰를 조성하여 인공지능 시스템의 잠재력을 충분히 실현하기 위해 인공지능 분야에서 협력하려는 지금까지의 국제사회의 노력을 환영한다.

◆인공지능 시스템은 주거, 고용, 교통, 교육, 건강, 접근성, 사법 등 일상의 많은 영역에서 이미 활용되고 있으며, 활용처가 확대될 가능성이 높다. 따라서 우리는 지금이 바로 안전한 인공지능 개발 필요성과 더불어 인공지능의 혁신적인 기회가 우리 국가들과 전 세계에서 포용적인 방식으로 선을 위해, 그리고 모두를 위해 사용되도록 할 필요성을 확인하고 행동해야 할 유일한 순간임을 인식한다. 이는 인권을 향유하고 UN 지속가능발전 목표 달성을 위한 노력을 강화하기 위해 보건 및 교육 등 공공 서비스, 식량 안보, 과학, 청정에너지, 생물 다양성 및 기후 분야 등을 포함한다.

◆이러한 기회요소와 동시에, 인공지능은 일상적인 분야를 포함하여 중대한 위험도 내포하고 있다. 이를 위해, 우리는 인공지능 시스템의 잠재적 영향을 검토하고 대응하기 위한 기존의 국제 포럼 및 기타 관련 이니셔티브를 통한 국제적 노력을 환영하며, 국제사회가 인권, 투명성 및 설명 가능성, 공정성, 책임성, 규제, 안전성, 사람의 적절한 감독, 윤리, 편견 완화, 프라이버시 및 데이터 보호를 다룰 필요성을 인식함을 환영한다. 또한 콘텐츠를 조작하거나 기만적인 콘텐츠를 생성할 수 있는 능력으로 인해 예측하지 못한 위험이 발생할 가능성에 주목한다. 이 모든 문제는 매우 중요하며, 우리는 이 문제를 해결할 필요성과 시급성을 확인한다.

◆특정한 안전 위험은 첨단 인공지능, 즉 광범위한 작업을 수행할 수 있는, 기반 모델을 포함한 범용 고성능 인공지능 모델과, 오늘날의 가장 발달한 인공지능 모델에 존재하는 기능에 대등하거나 이를 초과하는 위해를 일으킬 수 있는 기능을 지닌 특정 영역의 관련 인공지능에서 발생한다. 인간의 의도와 부합시키는 것과 관련하여 잠재적인 의도적 오용 또는 의도하지 않은 통제 문제로 인해 상당한 위험이 발생할 수 있다. 이러한 문제는 부분적으로 이러한 기능이 완전히 이해되지 않아서 예측하기 어렵기 때문이다. 우리는 특히 사이버 보안 및 생명 공학 등의 영역과 첨단 인공지능 시스템이 가짜정보와 같은 위험을 증폭시킬 수 있는 영역에서 이러한 위험에 대해 우려하고 있다. 이러한 인공지능 모델의 가장 중요한 기능으로 인해 고의적이든 아니든 중대한, 심지어는 치명적인 피해가 발생할 가능성이 있다. 인공지능의 빠르고 불확실한 변화 속도를 고려하고, 기술 투자 가속화의 맥락에서 볼 때, 이러한 잠재적 위험과 이를 해결하기 위한 조치에 대한 우리의 이해를 심화하는 것이 특히 시급함을 확인한다.

◆인공지능으로 인해 발생하는 많은 위험은 본질적으로 국제적인 성격을 띄고 있으므로, 이는 국제 협력을 통해 가장 잘 해결할 수 있다. 우리는 인공지능이 야기하는 광범위한 위험을 해결하기 위한 협력을 촉진하고자, 인간 중심적이고 신뢰할 수 있으며 책임성 있는, 안전하고 공공선을 지지하는 인공지능을 보장하기 위해, 기존의 국제 포럼 및 기타 관련 이니셔티브를 통해 포용적인 방식으로 협력할 것을 다짐한다. 이를 통해, 우리는 국가들이 인공지능과 관련된 위험을 고려하고 혜택을 극대화하는 혁신친화적이고 비례적인 거버넌스 및 규제 접근 방식의 중요성을 고려해야 한다는 것을 인식한다. 이는 적절한 경우 국내 상황과 적용 가능한 법적 체계에 따라 위험을 분류하는 것을 포함할 수 있다. 우리는 또한 적절한 경우 공통 원칙 및 행동 강령과 같은 접근 방식에 대한 협력의 관련성에 주목한다. 첨단 인공지능과 관련하여 발견될 가능성이 가장 높은 구체적인 위험과 관련하여, 우리는 향후 국제 인공지능 안전성 정상회의를 포함한 기존 국제 포럼 및 기타 관련 이니셔티브를 통해 파악하고 이해하며 적절한 경우 대응할 수 있도록 협력을 강화하고 지속하며, 더 많은 국가로 협력관계를 확장할 것을 결의한다.

◆모든 주체는 인공지능의 안전을 보장하기 위해 해야 할 역할이 있다. 국가, 국제포럼 및 기타 이니셔티브, 기업, 시민사회, 학계가 협력해야 한다. 포용적 인공지능과 디지털 격차 해소의 중요성을 고려하며, 우리는 국제협력이 필요에 따라 다양한 파트너를 참여시키고 포함하기 위해 노력해야 함을 재확인하고, 지속가능한 성장 지원 및 개발 격차 해소를 위해 개발도상국의 인공지능 역량 강화를 지원하고 인공지능의 촉진적인 역할을 활용하는 개발지향적 접근과 정책을 환영한다.

◆인공지능 생애주기 전반에 걸쳐 안전을 고려해야 하지만, 우리는 첨단 인공지능 기능, 특히 이례적으로 강력하고 잠재적으로 유해한 인공지능 시스템을 개발하는 주체들은 안전 시험 시스템, 평가 및 기타 적절한 조치를 통해 이러한 인공지능 시스템의 안전을 보장해야 할 특히 강한 책임이 있음을 확인한다. 우리는 모든 관련 주체가 특히 오용과 통제 문제, 기타 위험의 증폭을 방지하기 위해 잠재적 위험 기능 및 이로 인해 나타날 수 있는 관련 영향을 측정, 모니터링 및 완화하려는 계획에 대해 상황에 적합한 투명성 및 책임을 제공할 것을 권장한다.

◆협력의 맥락에서, 그리고 국내외 차원에서 조치에 정보를 제공하기 위해, 첨단 인공지능 위험 해결을 위한 우리의 의제는 다음 사항을 중점으로 한다.

-우리 사회에서 인공지능의 영향을 이해하기 위한 광범위한 글로벌 접근 방식의 맥락에서, 공통적으로 우려되는 인공지능 안전 위험을 파악하고, 이러한 위험에 대한 과학적 및 증거 기반의 공유된 이해를 구축하고, 역량이 지속적으로 확대됨에 따라 이러한 이해를 유지한다.

-이러한 위험을 고려하여 안전을 보장하기 위해 우리 국가들 간 각각의 위험 기반 정책을 수립하고, 국가 상황과 적용 가능한 법적 체계 따라 달라질 수 있음을 인식하면서도 적절하게 협력한다. 이는 첨단 인공지능 기능을 개발하는 민간 주체의 투명성과 더불어, 적절한 평가 지표, 안전 시험을 위한 도구, 관련 공공 부문 역량 및 과학 연구를 발전시킴으로써 투명성을 높이는 것을 포함한다.

이 의제를 더욱 강화함에 있어서, 우리는 정책 입안 및 공공선을 위해 사용할 수 있는 최고의 과학을 제공하기 위해 기존의 국제 포럼 및 기타 관련 이니셔티브를 포함하여 기존 및 새로운 다자간(multilateral), 복수국간(plurilateral), 양자간(bilateral) 협력을 포괄하고 보완하는, 첨단 인공지능 안전 과학 연구에 대한 국제적으로 포용적인 네트워크를 지원하기로 다짐한다.

◆인공지능의 혁신적인 긍정적 잠재력을 인식하고 인공지능에 대한 국제협력을 더욱 폭넓게 보장하기 위한 일환으로, 우리는 기존의 국제 포럼 및 기타 관련 이니셔티브가 참여하며 보다 광범위한 국제 논의에 개방적인 방식으로 기여하는 포용적인 글로벌 대화를 지속하고, 기술의 혜택이 이익과 모두를 위해 책임감 있게 활용될 수 있도록 인공지능 안전 분야에 대한 연구를 지속할 것을 결의한다. 2024년에 다시 만나기를 기대한다.

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★

■ 보안 사건사고 제보 하기

▷ 이메일 : mkgil@dailysecu.com

▷ 제보 내용 : 보안 관련 어떤 내용이든 제보를 기다립니다!

▷ 광고문의 : jywoo@dailysecu.com

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★