뇌와 AI – AI 기본법 : 인공지능 악용 범죄 이강현

서론 지난 8월, 9월에 논란이 되었던 성적 딥페이크 영상이 국민들에게 큰 혼란을 주었다. 수많은 일반인들이 피해를 입었으며, 특히 가해자의 상당 수가 10대인 점, 지인을 대상으로 가해를 했다는 점이 큰 충격을 주었다. 이에 국가인공지능위원회 출범식 및 제1차 회의에서 대통령은 AI 기본법을 통해 인공지능 악용 범죄를 제재하려고 하고 있다. 이렇듯 국회에서 많이 얘기가 나오고 있는 AI 기본법과 딥페이크에 대해 알아보기 위해 주제를 선택하게 되었다.

생성형 AI 미국에서 가장 오래되었고 저명한 사전인 웹스터 사전에 따르면 딥페이크란 실제로 존재한 적이 없거나 발생한 적이 없는 사건을 있던 것처럼 조작하여 사진이나 영상 등으로 만들어 내는 것을 의미한다. 딥페이크는 생성형 AI를 통해 만들 수 있다. 마찬가지로 웹스터 사전에서 정의를 찾아보면 생성형 AI는 입력한 명령에 따라 이미지, 글, 영상 등을 만들어내는 AI를 말한다. 유명한 생성형 AI로는 AutoEncoder와 GAN이 있다. 우선 autoencoder는 입력과 출력이 같은 모델로, 입력 값에 대해서는 복원을 잘 하는 특징을 가지고 있다. Encoder를 통해 중요한 정보를 추출하고, Decoder를 통해 중요한 정보를 이용해 복원한다. GAN은 Generative Adversarial Networks의 줄임말로, 한국어로 하면 적대적 생성 신경망이다. 생성기(Generator)와 판별기(Discriminator) 네트워크를 적대적으로 학습시킨다. 이해를 위해 경찰과 위조지폐범의 예시로 설명해보면, 생성기는 진짜 지폐와 비슷한 가짜 지폐를 만들어 경찰을 속이려 하는 위조지폐범과 같고, 반대로 판별기는 위조지폐범이 만들어낸 가짜 지폐를 탐지하려는 경찰과 유사하다.

위조지폐범은 경찰을 잘 속이기 위해 더욱 정교한 위조 지폐를 만들 것이며, 경찰은 위조 지폐를 더 잘 구분하도록 학습될 것이다. 이러한 경쟁(학습)이 계속됨에 따라 위조지폐범은 경찰을 속이지 못한 데이터를, 경찰은 위조지폐범에게 속은 데이터를 각각 입력받아 적대적으로 학습하게 되는 것이다. 이 게임에서의 경쟁은 위조지폐가 진짜 지폐와 구별되지 않을 때까지 즉, 주어진 표본이 실제 표본이 될 확률이 0.5에 가까운 값을 가질 때까지 계속된다. 딥페이크는 다양한 분야에서 유용하게 활용되고 있다. 의료 분야에서는 원본 영상과 거의 구별이 불가능한 딥페이크 의료 영상을 질병을 치료하는 AI의 학습 데이터로 이용한다. 질병 치료 AI는 다양하고 많은 데이터를 이용해 질병 진단 학습 정확도를 높일 수 있다. 교육 분야에서는 유관순 열사와 같은 역사적 인물을 복원함으로써 교육의 질을 높일 수 있다. 엔터테인먼트 분야에서는 과거의 유명 인물을 복원하는데 딥페이크를 활용할 수 있다. 실제로 ‘분노의 질주 : 더 세븐‘ 영화의 엔딩에서는 배우 폴 워커와 닮은 실제 형제에 딥페이크를 적용해 영화에 등장시키기도 했다. 이외에도 ‘그것이 알고싶다’의 피해자의 신변을 보호하고 시청자들에겐 몰입감을 제공하기 위해 피해자를 딥페이크를 사용해 나타내기도 하거나, 세상을 떠난 가수들의 그리운 목소리를 듣는 것도 가능하다.

인공지능 악용 범죄 안타깝게도 이렇게 유용한 딥페이크를 악용한 사례도 너무나 많다. 딥페이크를 악용해 허위 정보를 퍼뜨려 명예훼손을 하거나 사회적 혼란을 야기하기도 한다. 작년에는 바이든 대통령의 성소수자 비하 발언을 하는 가짜 영상이 나돌았다. 이는 정치에 아주 큰 영향을 미칠 수 있으며 사회적 혼란을 야기할 수 있는 심각한 문제이다. 그러나 더 심각한 사실은 딥페이크가 범죄에 악용될 수 있다는 것이다. 우선 유명인 사칭 사기가 있다. 딥페이크를 악용해 유명인들이 광고한 것처럼 사기를 치는 광고들이 SNS에 떠돌았다. 실제로, 코미디언이자 투자 분야 작가인 황현희의 얼굴을 합성한 광고가 떠돌았었다. 인터넷과 SNS 등을 통해 수많은 정보가 흘러들어오는 현대 사회에서 거짓된 정보를 분별하는 능력이 중요한 가치로 여겨지는 시대에 딥페이크는 이러한 능력들을 무력화시키고 있다. 또한, 서론에서 언급했듯이 성적 허위 음란물 유포 범죄도 발생했다. 이제는 연예인뿐만 아니라 일반인들도 피해 대상이 되었으며 심지어 많은 10대 학생들이 지인으로부터 피해를 받았다.

AI 기본법 이렇듯 AI 기술 발전에 따라 악용 범죄의 피해가 심해지자, AI 윤리에 대한 AI 기본법이 언급되기 시작했다. AI 기본법은 AI 산업 발전과 신뢰성 확보를 위한 조항을 담고 있으며, 기술 개발, 학습용 데이터 구축, 창업 지원 근거 등을 제시하는 법안이다. 간단히 말하면 인공지능의 발전, 신뢰, 안정성과 관련된 법률이라고 말할 수 있다. 작년에도 많은 AI 기본법이 발의되었다. 국회 과학기술정보방송위원회 법안소위를 통과했으나, 상임위 전체회의에 계류 중이다가 결국 통과되지 못했다. 작년 발의된 법안 중 하나인 ‘인공지능 책임 및 규제법안’을 보면, 주요 내용으로는 인공지능을 이용한 제품이 고위험 인공지능에 해당하는지 확인을 요청할 수 있다는 것이었다. 즉, 확인이 의무가 아닌 자율이었다. 처음에 언급했듯이, 이젠 대통령도 나서서 AI 기본법 제정에 힘쓰겠다고 말했다. 지난 8월 말에는 2주 동안 국회에서 딥페이크 디지털 성범죄 관련 법안이 34건이나 발의되었다. 올해 발의된 법안 중 하나인 ‘인공지능산업 진흥 및 신뢰 확보 등에 관한 특별법안’을 보면, 작년과는 다르게 인공지능을 이용한 제품은 반드시 인공지능위원회에 확인해야 하는 것으로 바뀌었다. 즉, 인공지능이 위험한지 확인하는 것이 필수로 바뀌었다. 하지만, 작년과 올해 모두 우선허용ᆞ사후규제를 원칙으로 했다. 이 원칙이 우리나라에서 법안이 통과되지 못한 이유라고 생각한다.

해외 사례 유럽연합(EU)은 세계에서 처음으로 포괄적인 인공지능(AI) 기술 규제법인 ‘AI법(AI Act)’을 최종 승인했다. 또한, 실시간 안면 인식을 한 뒤 프로파일링을 하는 등의 인권침해적 요소를 지닌 AI 서비스가 모두 금지되었으며, 내년엔 인간 수준의 사고력을 지닌 범용인공지능(AGI·Artificial General Intelligence)에 대한 규제도 시행할 것이라고 한다. 미국은 지난해 10월 ‘안전하고 신뢰할 수 있는 AI 개발 및 사용’을 위한 행정명령을 발동했으며, 중국은 지난해 8월 생성형 AI로 국가 전복, 테러 조장을 하는 콘텐츠를 만들 경우 형사 처벌이 가능하도록 조치했다. 이처럼 해외에서는 이미 사전 예방에 힘쓰고 있는 나라들이 많다.

나의 의견 지금 한국은 다른 나라들과 다르게 AI 기본법이 제대로 추진되지 못하고 있다. 물론 작년에 비해서는 규제가 강해지긴 했지만, 여전히 AI 규제를 우선 허용, 사후 규제의 원칙을 적용했기 때문이라고 생각한다. 우리나라도 이렇게 전 국민에게 딥페이크 범죄의 심각성이 드러난 지금, 이제부터라도 다른 나라들의 사례를 참고하여 사전 예방에 적극적으로 힘써야 한다고 생각한다.

AI와 윤리적 딜레마

지성전

인공지능은 이제 우리의 일상 속에서 중요한 결정을 내리는 역할을 하고 있습니다. 특히, 법률, 의료, 금융, 교통 등의 중요한 분야에서 AI는 인간의 판단을 대신하거나 보조하면서 빠르고 효율적인 결 정을 가능하게 하고 있습니다. 하지만 AI가 과연 인간처럼 공정하고 올바른 결정을 내릴 수 있을까 요? 인간의 뇌는 다양한 감정과 경험을 바탕으로 의사 결정을 내리는 반면, AI는 데이터를 기반으로 작동합니다. 이때 AI가 사용하는 데이터가 편향되어 있거나 불완전하다면, 그 결과 역시 편향된 결정 으로 이어질 수 있다는 우려가 제기됩니다. 오늘 저는 AI가 자동화된 시스템으로서 어떻게 중요한 결정을 내리고 있는지, 그리고 그 과정에서 발생할 수 있는 윤리적 문제에 대해 이야기하려고 합니다. 특히 법률, 의료, 금융과 같은 AI의 역할과 그로 인해 발생하는 윤리적 딜레마에 대해 살펴볼 것입니다. 예를 들어, 자율 주행 자동차가 갑작스럽 게 나타난 보행자를 마주했을 때, 그 AI는 보행자를 보호하기 위해 운전자를 위험에 빠뜨릴지, 아니면 운전자를 보호하기 위해 보행자에게 피해를 줄지 선택해야 합니다. 만약 여러분이 자율주행 자동차 회사의 주인이라면, 보행자를 보호하는 쪽을 선택할까요, 아니면 회사 제품 구매자의 안전을 우선시 할까요? 또, 만약 여러분이 자율 주행 자동차를 구매하려 한다면, 보행자를 보호하는 쪽을 선택한 자 동차를 구매하겠습니까 아니면 운전자의 안전을 우선시하는 자동차를 구매하겠습니까? 이 질문을 시 작으로, 우리는 AI가 인간 사회에서 내리는 결정이 얼마나 복잡한 윤리적 문제를 수반하는지 함께 살 펴보겠습니다. AI는 이미 법률, 의료, 금융 등 여러 중요한 분야에서 사람들의 삶에 큰 영향을 미치는 결정을 내리 고 있습니다. 예를 들어, 금융기관에서는 대출 승인 여부를 결정할 때 AI가 신용 점수와 소득, 소비 패 턴 등을 분석해 결과를 도출합니다. 그러나 이러한 결정이 항상 공정한 것은 아닙니다. AI가 사용하는 데이터가 편향되어 있거나 특정 인구 집단에 불리하게 작용할 경우, 일부 사람들은 대출이 거절되거 나 불리한 조건을 적용 받을 수 있습니다. 이는 경제적 불평등을 심화할 수 있는 잠재적 위험이 있습 니다. 또한 법률 분야에서는 COMPAS라는 AI 시스템이 피고인의 재범 가능성을 예측하는 데 사용되고 있습니다. 판사들은 이를 참고해 보석 여부나 형량을 결정하지만, 흑인 피고인에게 더 높은 재범 가능 성을 부여하는 편향된 결과가 보고되었습니다. 이처럼 AI가 사용한 데이터가 불완전하거나 편향적이 라면, 공정한 결정을 기대하기 어려운 상황이 발생할 수 있습니다. 의료 분야에서도 AI는 환자의 진단과 치료 계획을 세우는 데 점점 더 많이 활용되고 있습니다. IBM Watson Health는 암 진단을 돕기 위해 개발된 AI로, 의사들이 환자 데이터를 바탕으로 최적의 치료 방법을 제안하는 데 도움을 줍니다. 그러나 AI가 잘못된 데이터를 학습하거나 예상치 못한 상황에서 오작동할 경우, 환자에게 잘못된 치료 방법을 제안할 위험이 있습니다. 이러한 상황에서 발생하는 책 임 문제 역시 명확하지 않기 때문에 윤리적 논란이 계속되고 있습니다. 자율주행 자동차의 사례에서 보듯, AI는 보행자와 운전자 사이에서 생명을 보호하는 선택을 해야 할 수도 있습니다. 이때 AI의 결정은 데이터와 알고리즘에 의해 내려지지만, 어떤 선택이 윤리적으로 옳은지는 단순한 계산으로 판단할 수 없는 복잡한 문제입니다. 만약 이 결정이 편향된 데이터나 윤리 적 기준 없이 내려진다면, 그 결과는 심각한 사회적 논란을 불러일으킬 수 있습니다. 이러한 사례들은 AI가 자동화된 시스템으로서 중요한 결정을 내릴 때, 그 결정이 공정하고 신뢰할 수 있는지에 대한 의문을 제기합니다. AI가 인간의 삶에 중대한 영향을 미치는 만큼, 그 결정 과정과 결과에 대한 윤리적 고려는 필수적입니다. AI가 내리는 결정에 대한 책임 소재는 명확하지 않은 경우가 많습니다. 예를 들어, 자율주행 자동차 가 사고를 일으켰을 때, 그 책임이 자동차 제조사에 있는지, 소프트웨어 개발자에게 있는지 불분명합 니다. 이는 AI의 사용이 법적 규제에 의해 명확히 정의되지 않았기 때문입니다. AI가 의사결정에서 중 요한 역할을 하는 만큼, 책임성을 확보하기 위한 법적 장치가 필수적입니다. 이를 통해 AI의 잘못된 결정으로 인해 발생하는 피해에 대해 누가, 어떤 방식으로 책임을 져야 하는지 명확하게 규정해야 합니다. AI가 자동화된 결정을 내릴 때 큰 우려 중 하나는 그 결정이 얼마나 공정하고 투명한가에 대한 문제입니다. AI는 데이터를 기반으로 결정을 내리기 때문에, 그 데이터에 내재된 편향이 AI의 결정에 그 대로 반영될 수 있습니다. 예를 들어, 법률 분야에서 AI가 특정 인종의 범죄율이 높다는 편향된 데이 터를 학습하게 되면, 그 인종에 속한 사람들에게 더 불리한 결정을 내릴 가능성이 커집니다. 이는 단 순한 데이터 분석의 결과일 뿐이지만, 사회적 불평등을 심화할 수 있는 심각한 윤리적 문제를 발생시 킵니다. 여기서 의문이 들 수 있습니다. 왜 사람도 편향되거나 차별적인 결정을 내릴 수 있는데 AI에게만 이 렇게 엄격하게 할까? 하지만 AI의 경우, 이 문제가 더욱 심각해지는 이유가 몇 가지 있습니다. 첫째, AI는 대규모로 자동화된 결정을 내리기 때문에, 한 번의 편향된 결정이 수천, 수백만 건의 결정을 통 해 빠르게 확산될 수 있습니다. 이는 인간의 개인적인 편향과는 다른 차원에서 문제가 발생하는 것입 니다. 둘째, AI의 결정 과정은 투명하지 않기 때문에 그 결정이 어떻게 내려졌는지 이해하기 어렵습니 다. 이는 AI가 왜 특정 결정을 내렸는지 추적하고 그 과정을 분석하는 데 어려움을 주며, 문제가 발생 했을 때 책임을 물을 주체를 명확히 할 수 없는 상황을 초래합니다. 또한, AI는 인간과 달리 스스로 윤리적 판단을 내릴 수 없습니다. 인간은 사회적 규범과 도덕적 기준을 바탕으로 상황에 맞게 판단할 수 있지만, AI는 학습된 데이터를 기반으로만 결정을 내립니다. 예 를 들어, 자율주행 자동차가 보행자와 운전자 중 누구를 보호해야 할지 선택해야 하는 상황에서, AI는 수학적 최적화에 따른 결정을 내릴 수밖에 없습니다. 이때, AI가 어떤 윤리적 기준을 따라야 할지에 대한 명확한 기준이 없다면, 그 결정은 논란의 대상이 될 수밖에 없습니다. AI의 결정 과정을 투명하게 만드는 것이 중요한 이유는 AI가 내린 결정이 공정한지 검증하기 위해서입니다. 이를 위해 설명 가능한 AI(Explainable AI) 기술이 필요합니다. 이는 AI가 내린 결정을 사람 이 이해할 수 있게 설명하는 기술로, 이를 통해 AI의 결정이 왜 그렇게 이루어졌는지 명확히 알 수 있 습니다. 이는 잘못된 결정을 검증하고 수정할 수 있는 중요한 기초가 될 수 있으며, AI가 사회적으로 더 신뢰받을 수 있는 방식으로 작동하게 만듭니다. 또한, 의료 분야처럼 중요한 결정이 필요한 상황에 서는 AI가 제공한 데이터를 바탕으로 인간이 최종 결정을 내리는 인간-기계 협력 모델이 AI의 한계를 보완할 수 있습니다. 이를 통해 AI와 인간이 상호 보완적으로 협력할 수 있는 체계를 구축해야 합니 다. 하지만 가장 중요한 것은, AI가 인간의 삶에 미치는 영향이 점점 더 커지고 있는 만큼, 우리는 AI의 잠재력을 최대한 활용하면서도 그 단점들을 보완하는 노력을 멈추지 않아야 한다는 점입니다. ChatGPT가 개발된지 6년, 상용화된지는 4년이 되었습니다. 어렸을 때만 해도 인공지능은 컴퓨터 박 사님들이 다루는 것이라고 생각했지만, 요즘은 누구나 사용하는 것이 AI입니다. 그렇기에 AI가 윤리 적 문제에 직면한 것이 특정 사람의 문제가 아닌, 전 세계인의 문제입니다. 그렇기에 우리는 더 AI의 발전에 귀를 기울여야 하고, 문제를 해결하기 위해 노력해야합니다. 당연히, AI에 긍정적인 면이 더 많습니다. AI는 윤리적 기준을 반영하고 공정성을 강화하기 위한 지 속적인 개발과 감시를 통해 사회에 긍정적인 영향을 미칠 수 있습니다. 특히, 사회적 불평등을 해소할 수 있습니다. 예를 들어, 교육 분야에서는 AI가 개인 맞춤형 학습 도구로 활용되어 학생들의 학습 능력에 맞춘 교육을 제공할 수 있습니다. 특히 자원이 부족한 지역이나 소외된 계층의 학생에게 AI는 온 라인 학습 기회를 제공하며, 경제적 격차로 인한 교육 불평등을 완화할 수 있습니다. 또한, 건강 관리 에서도 AI는 의료 서비스 접근이 어려운 사람들에게 원격 진단과 치료 솔루션을 제공할 수 있지요. 재난 대응에서도 AI의 장점은 나타납니다. 지진, 홍수, 산불과 같은 재난의 발생을 예측하고 피해를 최소화 할 수 있습니다. 또, 공중 보건 관리에서도 감염병 확산을 예측하고, 효과적으로 억제하는데 큰 기여를 할 수 있지요. 교통 문제를 해결할 때도 큰 도움을 준다는 것은 핸드폰으로 네비게이션을 사용하는 운전자들은 다 알 것입니다. 궁극적으로, AI는 인간의 삶을 개선하는 강력한 도구로서 자리 잡을 수 있지만, 이를 위해서는 투명 성, 책임성, 그리고 윤리적 기준이 필수적으로 뒷받침되어야 합니다. 또한, 앞서 말한 것처럼 AI가 인 간의 판단을 보조하는 협력 모델도 중요합니다. AI는 데이터 기반으로 분석하고 결정을 도출하는 데 있어 탁월하지만, 인간의 감정적·도덕적 판단을 대체할 수는 없습니다. 우리가 이 도전에 적극적으로 대응한다면, AI는 사회적 가치와 공공성을 증진하는 데 큰 기여를 할 것입니다.