청대신문

전체기사

  • 청대신문
  • 전체기사
전체기사 상세보기, 제목, 카테고리, 내용, 파일등의 정보를 제공합니다.
제목 【사회】오용되는 AI, 편의의 이면 - 딥페이크 등 AI의 장단점과 사회적 인식
카테고리 사회

오용되는 AI, 편의의 이면

딥페이크 등 AI의 장단점과 사회적 인식

 
 올여름, SNS를 통해 확산된 딥페이크 성착취물이 사회적으로 크게 논란이 됐다. 보안서비스 업체 ‘시큐리티 히어로’에 따르면 딥페이크 성착취물에 등장한 인물 중 53%가 한국 국적이라고 밝혔다. 이는 2위인 미국 20%와 매우 큰 격차이다. AI는 유용한 도구로 사용되기도 하지만 AI를 활용한 보이스피싱, 성착취물 제작, 가짜 뉴스 확산 등 오용되는 사례도 많다.

 이번 사회면에서는 AI가 오용됨으로써 발생한 문제점과 우리대학 학우들의 AI에 대한 인식을 알아봤다. 또한, AI 앞에서 가져야 할 현명한 태도에 대해 우리대학 인공지능소프트웨어학과 교수와 이야기를 나눠봤다.
<편집자주>

 

오용된 AI가 불러온 파장

 최근 우리 사회는 딥페이크라는 큰 문제를 겪고 있다. 딥페이크란 인공 지능 기술을 활용해 기존 인물의 얼굴이나 특정 부위를 합성한 영상 편집물을 말한다. 이를 이용한 보이스피싱, 연예인의 얼굴을 합성해서 허위로 만들어 유포한 영상, 가짜 뉴스, 성 착취물 제작 등 여러 문제를 지녀 대중의 관심을 증폭시켰다. 

▲‘처음 입는 광복’ 캠페인 포스터 / 사진=빙그레 제공
 
 딥페이크의 원래 용도는 역사적 인물 재현, 의료 목적 등이었다. 예를 들어 광복절을 기념해 빙그레에서 진행한 ‘처음 입는 광복’ 캠페인이 있다. 이 캠페인은 AI 기술 즉 딥페이크로 복원한 독립운동가들의 사진에 한복을 입혀 재현하는 것이었다. 또 다른 딥페이크의 용도는 수술 시뮬레이션, 질병 진단 등이 있다. 

 이러한 딥페이크는 오용으로 인한 문제가 많다. 그 중 가장 큰 문제는 진짜인지 가짜인지 구별하기 힘들다는 것이다. 대중은 딥페이크로 만들어진 가짜 영상과 진짜 영상을 구분하지 못한다. 대중은 보통 자신이 처음 접한 뉴스가 진짜라고 믿는다. 하지만 이러한 뉴스가 가짜라면 이로 인해 선동 문제가 일어날 수 있다. 더불어 최근 텔레그램의 채팅방에서 일어난 사건 때문에 ‘텔레그램 이용자는 모두 잠재적 범죄자다’와 같은 논제에서 벗어나는 선동을 하는 사람들이 있다. 이렇듯 이는 딥페이크를 이용한 문제 이외에 전혀 다른 문제를 낳는 것을 볼 수 있다. 

 근래에 딥페이크와 같은 AI가 많은 발전을 이루면서 대중들이 손쉽게 이를 접할 수 있고, 이용할 수 있게 됐다. 기술이 대중화되면서 스마트폰 애플리케이션(이하 앱)을 활용해 초보자도 쉽게 딥페이크 사진과 영상을 만들 수 있게 된 것이다. 앱을 사용하면 5분 만에 누구나 딥페이크 영상을 만들 수 있고 공유가 가능하다. 이런 사실을 이번 딥페이크 사건이 일어난 요인 중 하나로 볼 수 있다. 하지만 이런 사실에도 불구하고 딥페이크와 같은 AI 사건을 처벌할 방법이 별로 없다. 예를 들어 딥페이크 성 착취물처럼 딥페이크를 악용할 경우 이를 처벌할 수 있는 조항은 현행법 가운데 ‘성폭력 범죄 처벌에 관한 특례법 14조의 2’ 하나뿐이다. 하지만 이마저도 유포했거나 유포할 목적이 입증돼야 처벌할 수 있어 개인이 만들고 보는 것은 처벌할 수 없다. 이렇다 보니 딥페이크 범죄의 증가세는 두드러지지만, 구속률은 낮다. 허위 영상물 범죄 발생 건수는 2021년 156건, 2022년 160건에서 지난해 180건으로 늘었고, 올해는 7개월간 297건이 발생했다. 하지만 지난 3년간 허위 영상물 범죄로 검거된 257명 중 구속된 인원은 12명(4.7%)에 불과했고, 올해 구속률도 2.7%(검거 146명 중 구속 4명) 수준이다.
 

AI에 대한 우리대학 학우들의 인식은?

▲구글 트렌드 데이터 기반 워드 클라우드 / 제작=김예은 정기자
 
 최근 AI 문제에 대한 관심이 두드러지고 있다. 특히 텔레그램 사건에서 대학생들이 연관돼 있던 만큼 우리는 이 문제에 대해 경각심을 가지고 바라봐야 한다. AI를 들어는 봤지만, 자세히 알고 있는 사람은 많지 않다. 우리대학 학우들의 AI에 대한 인식을 알아보기 위해 인터뷰를 진행해 봤다.

 동민지(디지털보안학과·2) 학우는 AI 사용에 대해 “긍정적으로 생각한다”며 그 이유로 “잘 모르는 내용에 대해 물어볼 때 쉽게 알려주기 때문”이라고 답했다. AI에 관한 교육을 들어봤냐는 질문에는 “들어본 적 없지만 앞으로 기회가 생기면 참여할 의향이 있다”고 밝혔다. 또한, 최근 많이 발생한 AI를 오용한 범죄에 대해 “AI에 대한 많은 범죄의 예방법이나 대책 마련이 필요하고 그에 대한 강연이 있으면 좋을 것 같다”고 전했다.

 김서현(문헌정보학과·2) 학우는 AI를 어떻게 생각하냐는 질문에 “그림AI로 인해 다른 사람의 저작권을 침해하는 사례가 발생하고 있으며, 최근엔 가짜뉴스 유포나 성착취물로 인한 피해 사례가 증가하고 있다”며 “무분별한 AI 사용 때문에 사람과 환경에 피해 사례가 발생하고 있기에, AI를 부정적으로 보고 있다”고 답했다. 또한, 최근 많이 발생한 AI를 오용한 범죄에 대해 “이러한 범죄들 때문에 많은 사람들이 피해받으므로 AI 사용에 대한 규제나 법률을 만들어야 한다”는 의견을 제시했다.
 
 

현명하게 AI를 대하는 방법

 AI의 발전은 우리 사회에 긍정적인 파장과 부정적인 파장을 동시에 일으키고 있다. 이는 비가역적인 시대의 흐름이다. 그런 시대의 흐름 앞에서 과연 어떤 태도로 AI를 대하는 것이 현명할지 우리대학 인공지능소프트웨어학과 노기섭 교수(이하 노 교수)와 대화를 나눠봤다.

 먼저 AI와 관련된 범죄가 늘어나는 원인이 무엇인지 묻자 “현재 문제는 인공지능이 모든 영역으로 생성 가능해서 디지털 콘텐츠나 어떤 디지털 아트에 리터러시같은 것들이 필요한데, 너무 빠르게 발전하다 보니까 사회 제도나 윤리가 따라가지 못해서 생기는 것 같다”고 설명했다.

 노 교수는 AI가 오용되는 문제를 예방하기 위한 방법으로는 “자발적으로 자정 기능을 갖게 하는 방법이 있고 아니면 두 번째 방법은 법과 규정으로 강제하는 방법”이 있으나 “자연스럽게 해결되는 건 안 될 것 같고 법으로 강제해야 될 것 같은데 법이 기술을 못 따라가서 문제”라고 의견을 밝혔다.

 AI를 사용할 때 주의해야 할 점이나 가져야 할 태도에 대해서는 “내가 생성하는 게 다른 사람한테 피해를 줄 수 있다는 첫 번째 가정을 갖고서 해야된다”고 답했다. 이어 “섹슈얼리티나 표절 같은 문제 그리고 다른 사람이 정당하게 한 거를 이제 내가 한 것처럼 잘 포장해 주거나 내가 할 것을 대신해 주는 게 인공지능이라서 경각심을 갖는 게 중요하다”고 덧붙였다.

 마지막으로 노 교수는 “볕이 있으면 그늘이 있는 것처럼 그늘이 무섭다고 해서 인공지능을 이렇게 두려워할 필요는 없는 것 같고 학생들은 인공지능을 최대한 많이 써야된다”며 “부작용을 너무 두려워하지는 말되 인식은 하고 있어야겠다”는 견해를 전했다.
 
<김예은 정기자>
ing11098@cju.ac.kr
 
<강지우 수습기자>
rkdwldn@cju.ac.kr
 
파일

담당자 정보