[IT 동아] [생성 AI 길라잡이] 방통위, 이용자 보호 위한 생성형 AI 서비스 가이드라인 발표

※생성 인공지능이 세계를 뜨겁게 달굽니다. 사람만큼, 더러는 사람보다 더 그림을 잘 그리고 글을 잘 쓰는 생성 인공지능. 생성 인공지능을 설치하고 활용하는 방법과 최신 소식을 매주 전합니다.
[IT동아 한만혁 기자] 인공지능(AI) 기술이 빠르게 발전하면서 다양한 생성형 AI 서비스가 나오고 있습니다. 덕분에 전문 지식이 없는 일반인도 그림, 음악, 글쓰기, 코딩 등의 작업을 원하는 대로 할 수 있게 됐습니다. 하지만 생성형 AI 서비스를 딥페이크 성범죄물, 차별 및 편향 콘텐츠 생산 등 정보 생산 등에 악용하는 사례도 발생하고 있습니다. 이에 이용자 안전 및 권리를 보호할 제도적 기반 마련에 대한 필요성이 지속적으로 제기됐습니다.
방송통신위원회(방통위)는 이런 요구에 대응하기 위해 지난해 2월 정보통신정책연구원(KISDI) 및 학계, 업계, 시민단체와 함께 연구반을 구성하고 생성형 AI 피해 사례와 국내외 주요 서비스별 이용자 보호 현황 등을 검토 후 이를 기반으로
생성형 AI 서비스 이용자 보호 가이드라인을 마련했습니다.
방송통신위원회가 생성형 AI 서비스 이용자 보호 가이드라인을 발표했다 / 출처=방송통신위원회
방송통신위원회가 생성형 AI 서비스 이용자 보호 가이드라인을 발표했다 / 출처=방송통신위원회

또한 지난해 9월 열린 ‘AI 서비스 이용자 보호 학술회의’에서 가이드라인 주요 내용을 발표하고, 주요 사업자 대상 기업 간담회를 진행하면서 이해관계자 의견을 수렴했습니다. 실효성 있는 가이드라인을 구축하기 위함이죠.
방통위가 발표한 생성형 AI 서비스 이용자 보호 가이드라인은 서비스 개발사 및 제공자를 대상으로 하며, 생성형 AI 서비스 전반에 걸쳐 추구해야 할 기본 원칙과 이를 실현하기 위한 실행 방식을 담고 있습니다.
기본 원칙은 ▲인간의 존엄성을 보호하고 개인의 자유와 권리를 보장하며, 인간이 적절하게 통제하고 감독할 수 있는 방식으로 제공 ▲AI 시스템 사용에 따른 작동 원리 및 결과, 이용자에게 미치는 영향 등에 대해 제공 ▲안전하게 작동되어야 하며, 예상치 못한 피해를 최소화하고 악의적으로 이용되거나 변경되지 않도록 제공 ▲이용자에게 차별 또는 불공정한 결과가 발생하지 않도록 제공 등 4가지입니다.
이를 실현하기 위한 방안으로 방통위가 제시한 실행 방식은 6가지입니다. 첫째는 이용자 인격권 보호입니다. 서비스 개발사는 이용자 인격권 침해 요소를 발견 및 통제하는 알고리즘을 구축하고, 서비스 제공자는 이용자 인격권 침해 관련 내부 모니터링 체계나 이용자 신고 프로세스 등을 마련해야 합니다.
생성형 AI 결과물임을 알린 모범 사례 / 출처=방송통신위원회
생성형 AI 결과물임을 알린 모범 사례 / 출처=방송통신위원회
두 번째 실행 방식은 서비스의 결정 과정을 알리는 것입니다. 서비스 제공자는 결과물이 생성형 AI로 생성됐음을 고지하고, 서비스 사업자의 이익을 침해하지 않는 범위 내에서 생성형 AI의 작업 과정에 대한 기본 정보를 제공해야 합니다.
세 번째는 다양성 존중입니다. 서비스 개발사와 제공자는 차별적, 편향적 정보를 줄이고 다양성을 보장하는 원칙이나 기준을 마련해야 합니다. 이용자가 서비스를 편향적으로 사용하지 않도록 기능적 장치를 마련하고, 편향적 정보 생성에 대해 즉시 신고할 수 있는 방법을 마련해야 합니다.
네 번째는 입력 데이터 수집 및 활용 관리입니다. 서비스 제공자는 이용자가 입력 및 생성한 데이터를 학습 데이터로 활용하는 경우 사전에 고지하고 동의 혹은 거부할 수 있는 절차를 마련해야 합니다. 또한 기업 내 감시 조직이나 책임자를 선정해 이용자의 데이터가 안전하고 정당하게 활용되도록 관리해야 합니다.
다섯 번째는 문제 해결을 위한 책임과 참여입니다. 서비스 제공자는 이용자의 이해를 돕기 위해 제공자와 이용자의 책임 범위를 정의하고, 이용자가 자기 책임을 명확히 인지하도록 안내해야 합니다. 또한 이용자의 피해 발생을 최소화하기 위해 모니터링 시스템이나 위험 관리 체계를 마련해야 합니다.
마지막 실행 방식은 건전한 유통 및 배포를 위한 노력입니다. 서비스 제공자는 이용자가 부적절한 콘텐츠를 생성하거나 공유하지 않도록 안내하고, 도덕적, 윤리적 기준을 준수하는지 검토 및 관리해야 합니다. 특히 이용자가 유해한 콘텐츠를 청소년에게 유포하지 않도록 노력해야 합니다.
방통위는 각 실행 방식에 대한 모범 사례도 공개했습니다. 실제 서비스에서 모범 사례를 취합한 만큼 서비스 사업자의 이해도를 높이는데 유용할 것으로 보입니다.
생성형 AI 서비스 이용자 보호 가이드라인 표지 / 출처=방송통신위원회
생성형 AI 서비스 이용자 보호 가이드라인 표지 / 출처=방송통신위원회
가이드라인은 오는 3월 28일부터 시행되며, 세부 내용은 방통위 홈페이지에서 내려받을 수 있습니다. 방통위는 시행일 기준 2년마다 가이드라인에 대한 타당성을 검토해 개선할 계획입니다.
방통위는 가이드라인을 발표하며 생성형 AI 서비스 이용 과정에서 발생할 수 있는 잠재적 위험을 사전에 방지함으로써 안전하고 신뢰할 수 있는 생성형 AI 서비스 이용 환경을 마련하고자 한다고 밝혔습니다. 실효성 있는 실행 방안이 되도록 업계의 목소리도 충분히 반영했습니다.
물론 가이드라인에 강제성은 없습니다. 하지만 서비스 개발자와 제공자가 적극적으로 준수한다면 보다 안전한 이용자 보호 환경과 신뢰할 수 있는 서비스 생태계가 조성될 것입니다. 자연스럽게 생성형 AI 산업도 확장되겠죠. 이번 가이드라인을 통해 보다 많은 사람이 생성형 AI 서비스의 편리함을 누릴 수 있기를 기대합니다.
IT동아 한만혁 기자 (mh@itdonga.com)

<구체적인 내용이나 첨부파일은 아래 [IT 동아] 사이트의 글에서 확인하시기 바랍니다.>

Add a Comment

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다