[보안 칼럼] "생성AI 시대에도 언제나 보안이 필수적이어야 한다"

2024-06-12     길민권 기자

생성AI시대에도 언제나 보안이 필수적이어야 한다.

생성 AI, 그야말로 최근의 무서운 성장세로 확산되더니 이제는 실제 현업의 업무 및 서비스로 스며들고 있습니다. 그러나, 늘 예상하듯이 보안 이슈도 같이 확산되고 있어서 이에 대한 기관 내외부로부터의 위협과 취약한 포인트에 대해 더욱 정밀하게 대응해야 할 것으로 판단됩니다. 최근 폐쇄형 LLM과 더불어 공개형 LLM 버전을 기관 내부에 구축하는 사례가 많이 늘어나고 있으나 이 경우에도 여러 가지 생각치 못한 보안 이슈가 발생하고 있습니다.

첫번째로 내부 사용자가 LLM 모델을 속여 원하지 않는 작업을 수행하도록 악의적인 프롬프트를 입력할 수 있습니다. 예를 들어, 공격자는 모델이 개인정보를 포함하는 문서를 생성하도록 하거나, 악성 코드를 포함하는 코드를 생성하도록 유도할 수 있어서 모든 프롬프트를 검토하고 악의적인 것으로 의심되는 프롬프트를 차단하는 시스템을 구축해야 합니다. 사용자 권한을 제한하여 특정 유형의 프롬프트를 실행할 수 없도록 해야 하고 사용자에게 악의적인 프롬프트의 위험성에 대한 교육을 제공하고, 의심스러운 프롬프트를 보고하도록 유도해야 합니다.

두번째로 LLM 모델은 학습 데이터에 포함된 편향을 반영할 수 있습니다. 즉, 특정 그룹에 대한 편견을 포함하는 결과를 도출할 수 있다는 것입니다. 이를 방지하기 위해 학습 데이터 세트가 다양한 그룹을 대표하도록 해야 하며 모델을 평가하여 편향된 결과를 도출하는지 확인하고, 편향을 감지하고 제거하기 위한 방법을 마련해야 합니다.

세번째는 LLM 모델이 악의적인 목적으로 오남용될 수 있습니다. 예를 들어, 허위 정보를 생성하거나, 선동적인 콘텐츠를 만들거나, 혐오 발언을 하도록 사용될 수 있습니다. LLM 모델의 사용 목적을 명확하게 정의하고, 이 범위를 벗어나는 사용을 금지해야 하며 LLM 모델의 사용 사례를 모니터링하여 오남용 가능성을 감지하고, 필요한 조치를 취해야 합니다.

네번째로 LLM 모델은 개인정보를 포함하는 프롬프트를 처리할 수 있습니다. 이 경우, 프라이버시 침해 문제가 발생할 수 있습니다. LLM 모델에서 처리할 수 있는 개인정보 유형을 제한하고, 개인정보 보호 정책을 준수하도록 개인정보를 익명화하거나 탈식별화하여 처리해야 합니다.

그리고, LLM 모델은 불완전하거나 오류가 있을 수 있습니다. 이 경우, 모델 오류 또는 실패로 인해 피해가 발생할 수 있습니다. 이를 방지하기 위해 모델을 검증하고 평가하여 정확성과 안정성을 확인해야 하며 모델 오류를 감지하고 수정하기 위한 시스템을 구축해야 합니다. 모델 오류 또는 실패로 인해 발생하는 피해를 최소화하기 위한 백업 및 재해 복구 계획을 수립해야 합니다.

JSI

생성 AI의 보안 위협에 대한 철저한 대응은 기술 발전의 지속 가능성을 위한 필수 조건입니다. 위에서 제시된 방안들을 적극적으로 활용하고, 지속적인 노력을 통해 안전하고 책임 있는 AI 활용 환경을 조성해야 합니다.

[글. JSI LAB 문준식 전무]

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★