과학

[인싸랑] '나쁜' 사회에서 '착한' AI가 가능할까?

조주연 기자

piseek@tbs.seoul.kr

2022-08-17 16:54

151


▶ 어렸을 때 꿈은 과학자, 지금은?

조주연 >
서울대 법학전문대학원에서 인공지능 AI를 연구하고 계신 고학수 교수님 모셨습니다. 안녕하세요. 교수님. 간단하게 자기소개 부탁드립니다.

고학수 >
저는 서울대학교 법학전문대학원에서 강의하고 있고요. 본래 전공 분야는 법경제학입니다. 근래는 데이터 관련된 법 제도, 그리고 인공지능 관련된 법 제도 영역을 연구하고 있습니다.

조주연 >
그러면 저희가 과학 질문을 해도 되고 경제학 질문을 해도 되고 법 질문을 해도 되는 건가요? 3개 다 가능한 건가요?

고학수 >
제가 공부한, 연구한 이력으로 보면 경제학에서부터 출발했고요. 그다음에 법 공부를 했고, 그 공부한 것을 기반으로 해서 과학기술 영역을 계속 들여다보고 있어서 경제학, 법학, 기술이 만나는 지점과 관련된 여러 이슈를 쳐다보고 있는 중입니다.

저는 어렸을 때 사실은 과학자가 꿈이었어요. 초등학교 때는 과학 소설(SF)을 읽으면서 꿈을 키웠고, 중학생이 된 다음에는 원대한 꿈을 가지고 우주 공학을 하고 싶다는 생각을 했습니다. 그러다가 어느 시점에서부터는 공학보다는 조금 더 사회에 관한 관심이 생기면서 인문 사회 쪽에 관심을 가지게 되었고요. 그런 관심을 가지게 된 계기 중 하나는 우리나라 근대사, 서양 역사 이런 책을 보게 되고, 개인적으로는 풍물, 사물놀이, 탈춤 뭐 이런 거에 또 관심을 가지기도 했습니다. 그런 계기를 겪으면서 사회과학을 공부하겠다는 쪽으로 방향을 바꿨고, 사회과학 중에 경제학을 해야 기초가 튼튼해지지 않을까 이런 생각을 했었고요. 근데 경제학이라고 하는 것이 학문으로서, 학문 방법론으로서 훌륭하고 튼튼한 것이긴 한데 저는 사회 현실, 사회 현장 이런 것들에 조금 더 관심이 있는 편이라서 실제 사회적인 이슈가 구체적으로 나타나는 접점은 법 현상을 통해서 나타나는 것이 일상적이어서…. 또 경제학이건 법이건 대상이 되는 영역이 굉장히 다양할 수 있는데 과학기술과 관련된 영역에 지속적인 관심이 생겼고….

제가 대학원 공부하던 시절에 인터넷이 일상화되고, 사회에 들어오는 그런 시기였고요. 그래서 인터넷을 통해 대표되는 어떤 새로운 세상의 변화, 디지털적인 변화, 근래 와서는 빅데이터, 인공지능. 제가 보기에는 그게 다 커다란 어떤 흐름의 연속성 상에 있는 것 같고요. 그런 변화를 정면으로 쳐다보면서 연구 화두를 얻는 작업을 하고 있습니다.

▶ 법경제학이란? 인공지능 AI란?

조주연 > 그러면 일단 법경제학은 저희가 좀 낯설어서 법경제학이 뭔가요?

고학수 > 경제학의 방법론을 가지고 법을 한번 들여다보는 거고요. 한 가지 사례를 말씀드리면, 사형 제도를 우리가 계속 유지할 것인지 또는 없앨 것인지. 법경제학은 사형 제도가 있으면 흉악범이 줄어들지, 반대로 사용 제도가 있다고 해서 흉악범이 줄어드는 그런 효과는 사실은 없는 것인지, 이런 걸 따져보는 것이 한 가지 예가 되겠습니다.

조주연 >
그러면 이번에는 과학 질문을 드리면, 인공지능 AI는 뭔가요?

고학수 >
AI는 사실 간단치는 않습니다. 굉장히 다양한 것들을 우리가 포괄해서 AI라고 부르고 있는 것이고요. AI의 가장 일반적인 특징 중 하나는 데이터에서 출발을 한다는 것이고요. 우리가 여러 가지 종류의 데이터가 있을 때 그 데이터를 분류해내는 기능, 예측을 해내는 것 이런 건데요. 그로부터 다양한 응용 영역을 생각해볼 수 있겠습니다.

조주연 >
그러면 저희가 좀 많이 들어봤던 사례를 설명해주신다면 어떤 게 있을까요?

고학수 >
우리나라 사회에서는 ‘인공지능 기술이 이런 게 가능하구나’라는 걸 알게 해 준 직접적인 계기는 알파고 바둑이 되겠고요. 그다음에 ‘인공지능 기술이 사회에 들어오면서 문제가 생길 수 있고, 사회적인 관점에서 다시 한번 돌아볼 필요가 있겠다’라는 걸 알게 해준 게 챗봇 이루다가 있겠고요. 그 이외에 사실은 우리 일상생활의 인공지능 기술이 굉장히 다양한 곳에 있습니다. 가장 일상적으로는 우리가 문자를 보낼 때 채팅을 할 때 타이핑을 하기 시작하면 알아서 고쳐주기도 하고 틀린 철자가 있으면 또는 그다음 단어를 제시해 주기도 하고. 이런 것들이 다 인공지능이고요.

▶ ‘이루다’ 논란으로 본 인공지능과 윤리

조주연 >
말씀해 주셨던 사례 중에 알파고는 긍정적으로 기억하고 있고, 자동 완성 기능도 너무 편리한데 이루다 챗봇 같은 경우는 끝이 좀 좋지 않았잖아요.

고학수 >
이루다의 경우는 2020년 12월에 출시가 됐었고요, 출시되자마자 굉장히 인기가 좋았죠. 그러고 나서 곧바로 또 사회적인 논란이 제기됐었고, 한 3주 정도 만에 서비스를 접었는데요. 많은 분이 기억하실 건데 접게 된 계기 중 하나가 챗봇 서비스 자체는 굉장히 자연스러웠는데 ‘자연스럽다’라고 하는 것은 개발자 입장에서는 뿌듯한 거죠. 그런데 다른 한편 그 과정에서 혐오 발언, 차별 발언 이런 것들이 부각이 돼서. 굉장히 중요한 교훈을 준 것은 기술 개발 자체도 중요하지만 동시에 일반인들이 쓰기 시작하면, 사회에 본격적으로 들어오기 시작하면, ‘사회적인 관점에서 이 기술을 어떻게 바라볼 것이냐’라는 것을 회사에서 신경 썼던 것보다 사실은 훨씬 더 많이 신경 써야 한다는….

조주연 >
차별과 혐오 표현, 이런 것들을 AI가 학습했다는데 사람들이 진짜 많이 놀랐잖아요. AI 전문가는 예측했던 문제인가요?

고학수 >
어느 정도는 예측했던 거고요. 어느 정도라고 이야기하는 건 무슨 의미냐면, AI가 학습하는 재료는 결국은 데이터고요. 예를 들면, 인터넷 공간에 널려져 있는 여러 가지 데이터를 이용하는데 고운 말만 있지는 않죠. 당연히 거기에 욕설도 있고 듣기 불편한 얘기들이 다 섞여 있는 것이고요. 바람직하지 않은 표현들이 잔뜩 거기에 녹아 들어갈 가능성이 있고, 그러면 거기에 녹아 들어간 그런 좋지 않은 표현을 어떻게 걸러낼 것이냐 이런 질문이 이제 그다음 단계 질문이 되는데요. 근데 우리가 예컨대 같은 한국말을 쓰더라도 어떤 부류의 사람들이냐에 따라서 고운 표현을 쓰는지, 좀 험한 표현을 쓰는지 다르거든요. 그러니까 국가적인 차원의 기준을 정한다고 하는 건 거의 불가능에 가깝죠. 그래서 개발자가 그런 좋지 않은 표현을 걸러내고 ‘필터 한다’라고 표현을 합니다. 걸러내는 과정을 거치기는 하지만 ‘이게 정답이야’라고 딱 말할 수는 없는 현실적인 어려운 점이 있고, 그게 또 이 영역을 흥미롭게 만들기도 하고 또 어렵게 만들기도 하는 그런 점이기도 합니다. 얼마나 유용한 방향으로 만들어갈지, 그런 부작용을 그냥 방치하다가 부작용이 더 커지도록 할지 이런 건 결국은 우리 사회가 만들어가야 하는 거라고 할 수가 있죠.

조주연 >
그러면 인공지능 기술의 발전이 가져올 위험이나 혜택, 이런 걸 다 고려해서 사회가 이 지점까지는 받아들일 수 있겠다. 이걸 고민하는 게 인공지능 윤리라고 볼 수 있는 건가요?

고학수 >
넓게 보면 그렇죠. ‘인공지능 윤리’ 하면 굉장히 무게감이 있는, 불편한 단어 이렇게 느껴질 수도 있는데 결국은 이 기술이 기술 세계 안에만 머무르지 않고 사회에 본격적으로 도입되는 과정에서 사회적인 규범적인 관점, 이런 것들을 반영하면서 기술을 만들어 갈 것이냐 이런 것들이 인공지능 윤리의 영역에서 계속 생각하게 되는 이슈들이라고 하겠습니다.

▶ 인공지능 윤리, 어디까지 왔나

조주연 >
말씀하셨던 것처럼 선한 데이터, 옳은 데이터만 학습을 시킬 수는 없고, 그것을 판단하는 기준도 애매하고, 그것이 정말 옳은 데이터인가라는 의문도 들고. 이렇게 계속 꼬리를 물고 질문이 나오는데 인공지능 윤리는 지금 어느 정도 연구가 되어 있는 상태인 거예요?

고학수 >
사실은 아주 아주 초기이고요. 초기인 게 어떻게 보면 자연스럽기도 한 게 기술 개발이 급속도로 이루어지고 있기는 하지만 우리가 좀 아까 언급했던 알파고를 생각해 보면, 그게 불과 10년도 안 된 것이고, 이루다 사건 같으면 1년 좀 넘은. 그렇게 썩 오래되지 않았어요. 지금은 우리가 인공지능을 통해서 사회적인 관점에서 어떻게 바라볼지 또는 사회적인 부작용이 어떤 형태로 나타나고 있는지를 좀 갈래를 잡고 체계화하는 이런 작업을 하고 있는 단계고요. 그중에 이게 정답인 것 같다고 하는 것은 아직 없고, 여러 가지를 고려하면서 조금씩 만들어가고 있는, 대체로 그런 단계라고 보시면 되겠습니다.

▶ 여기서 잠깐! 트롤리 딜레마 질문!
자율주행차, 누구를 살릴 것 인가?

고학수 >
예를 들면 한 사람을 칠지, 세 사람을 칠지, 또는 운전자를 좀 더 보호할지, 행인을 좀 더 보호할지, 이렇게 여러 가지 형태로 변형된 딜레마 상황을 다 포괄해서 트롤리 딜레마 이렇게 설명하는데 사실은 자율주행 자동차가 이쪽 사람을 칠지, 저쪽 사람을 칠지, 누구를 덜 다치게 할지, 이런 고민을 하면 안 되고요. 자율주행차가 그런 고민할 정도가 되면 그런 차는 출시되면 안 되는 거죠. 그러니까 장애물이 있고, 특히나 인명 피해가 발생할 것 같은 상황이 되면 자율주행차는 멈춰야 하는 거죠. 그게 정답인 것이고요. 보통은 이 딜레마 상황에서 멈추지 못해서 문제가 생기는 게 아니라 사람이 지나가는데 행인을 못 알아본, 기술적으로 센서가 작동을 제대로 못한 거죠. 딜레마 상황에서 이러나 저러나 인명피해가 생길 수밖에 없다면 아직은 기술의 완성도나 신뢰성이 충분하지 않은 거죠.

학교 강의실에서 논의를 하는 용도로는 되게 좋은 딜레마이기는 한데 현장 기술 현장 입장에서는 별로 현실적이지 않은 그런 딜레마, 학교에서 고민하고 논의, 토론을 하기 위한 그런 용도로는 아주 훌륭한 딜레마입니다.

▶ 프라이버시 “데이터 보호해야” vs. AI “데이터 많을수록 좋아”

조주연 >
예전에 교수님께서 프라이버시 이 분야도 굉장히 많이 연구를 하셨더라고요. 이 프라이버시 부분하고 인공지능 기술하고 같이 접목될 수 있는 부분이라든지, 연관이 될 수 있는 지점은 없을까요?

고학수 >
그런 지점이 아주 아주 많습니다. 인공지능은 데이터가 그 모든 걸 좌지우지한다고 말할 수도 있어요. 개발 현장에 있는 분들은 데이터가 많으면 많을수록 좋다, 이런 얘기들을 합니다. 그런데 프라이버시는 일반적으로 데이터가 적은 것을 전제로 하게 되고요. 실제로 우리나라 법에는 ‘최소 수집의 원칙’이라고 하는 게 있어요.

*개인정보보호법 제3조 제1항
목적에 필요한 범위에서 최소한의 개인정보만을 적법하고 정당하게 수집하여야 한다.

그러면 개발 현장에서는 좋은 성능의 인공지능 개발을 위해서는 데이터가 많아야 하는데 프라이버시를 고려하면 데이터가 적어야 해. 그럼 뭔가 서로 앞뒤가 안 맞는 것 같죠. 그런 과정에서 그러면 정말 필요한 게 무엇이고, 아니면 데이터를 많이 쓰더라도 프라이버시를 고려해서 누군지 알아볼 수 없게 만든다든가. 이런 식의 장치, 기법, 절차들이 같이 개발이 되는 것이고요. 그런 제약 조건이 있는 것이 개발자들 입장에서는 불편하기도 하지만 동시에 그런 제약을 전제로 해서 또 새로운 기술이 계속 나오거든요. 세계적인 IT 기업들을 보면 프라이버시가 어떤 면에서는 약간 번거롭기도 하지만 ‘프라이버시를 전제로 기술 개발을 잘 해야 이용자들의 신뢰를 얻는다’ 이런 식의 고민을 계속하고 있는 거죠.

▶ 인공지능에 ‘공정’을 어떻게 코딩할래?

조주연 >
인공지능법학회 회장님이시잖아요. 그래서 처음에는 이 이름이 좀 어색하게 느껴졌었거든요. 그런데 듣다 보니까 인공지능하고 법학은 함께 있는 게 맞는 것 같아요.

고학수 >
인공지능 윤리 중에 굉장히 언급이 많이 되는 것 중 하나는 ‘인공지능은 공정해야 한다’. 공정한 인공지능에 관한 어떤 요구 이런 겁니다. 근데 인공지능을 거꾸로 불공정하게 만들겠다고 생각하는 개발자는 세상 어디에도 없을 거거든요. 일반적인 관점 또는 윤리나 법의 관점에서 ‘공정하다’고 하는 추상적인 표현을 쓰는 것은 어렵지 않은데 그 ‘공정한 인공지능’이라는 게 개발자 손에 가면 개발자는 결국은 코딩을 해야 되거든요. 코딩을 할 때 코딩에 ‘공정’ 이렇게 쓸 수는 없거든요. 그러면 공정한 결과가 나오기 위해서, 공정한 인공지능이 되기 위해서 코딩에 어떤 식으로 반영을 할 것이냐 또는 실제 데이터를 통해서 어떤 식으로 측정할 것이냐. 그러면 공정이라고 하는 추상적인 개념을 개발자의 언어로 바꾸려면 어떤 고민을 해야 되냐. 그런 고민이 제대로 이루어지려면 법이나 규범 등을 고민하는 분들과 실제 코딩하는 공학적인 입장에 있는 분들이 같이 논의하고 같이 고민하는 게 매우 매우 중요하다고 생각합니다.

▶ 삐뚤삐뚤 새로운 길, 10년 후 나에게 한 마디

조주연 >
그러면 앞으로 더 연구하고 싶으신 분야가 있으신가요?

고학수 >
평생의 화두라고 할 만한 것은 정보, 데이터, 이런 것. 제 연구 커리어의 출발점은 정보경제학이었고, 그 정보로부터 출발을 해서 이제 개인정보, 프라이버시 이런 연구를 했고, 인공지능도 이제 데이터가 핵심 영역이 되는 거고요. 또 데이터가 굉장히 중요한 영역으로 부각되고 있는 영역 중 하나는 메타버스 영역이죠. 메타버스는 텍스트 데이터, 이미지 데이터, 또 소리를 통한 보이스 데이터, 이런 것들이 같이 나타나는, 굉장히 입체적으로 데이터가 활용이 되는 영역이 될 것이라서 그 영역을 또 앞으로 한동안 들여다보게 될 것 같습니다.

조주연 >
10년 후 나에게 하고 싶으신 말씀은 어떤 건가요?

고학수 >
10년 후 나에게 한마디는 사실 저한테는 되게 어려운 질문인 이유 중에 하나가 제가 지금 연구하고 있는 것은 10년 전에는 전혀 꿈도 못 꿨던 영역에 관한 연구거든요. 스스로를 돌이켜 보면 좌충우돌하면서 연구 커리어를 만들어 왔던 점이 있고요. 10년 후에도 ‘좌충우돌 해왔지만 나름대로 일관성 있는 길을 걸어왔구나’ 라는 얘기를 할 수 있으면 비유적으로 얘기하면 아프리카 이런 데 사막에 이제 비가 온 다음에 그러니까 사람이 지나다닌 흔적이 싹 사라진 다음에 어떤 에이 지점에서 비 지점까지 새롭게 걸어가서 새롭게 경로를 만들어 낸다라고 하면 그게 직선 경로로 가면 좋지만 사람이 직선으로 안 가거든요. 제가 걸어온 경로도 그렇게 약간은 삐뚤삐뚤해 보이긴 하지만 또 그걸 다 모아놓고 보면 직선에서 그렇게 많이 벗어나지는 않은 경로를 간 것으로 스스로 정당화할 수 있으면 굉장히 뿌듯할 것 같습니다.

연출 맹혜림
취재 조주연
촬영 윤재우 김용균 고광현
CG 김용은
뉴스그래픽 김지현

기사제보 및 보도자료 제공 tbs3@naver.com copyrightⓒ tbs. 무단전재 & 재배포 금지

151 카카오톡 페이스북 링크