인공지능(AI)을 둘러싼 많은 논란은 AI가 산출할 수 있는 편향된 결과에 초점이 맞춰지고 있는데, 이 문제를 해결할 수 있는 단일 솔루션은 없습니다. 모두가 알다시피 AI의 품질은 입력되는 데이터의 품질에 비례합니다. 편향성이 완전히 해소되지 않은 작금의 상황에서 어떻게 해야 진정한 윤리적 AI라는 파라다이스에 입성할 수 있을까요?
또한 AI의 윤리는 순수하게 기술적 관점에서 평가하는 것이 타당한 것일까요? 편향된 결과는 AI가 등장하기 전부터 만연해 있던 사회적 문제의 반향이라는 주장이 설득력을 얻고 있습니다. 최근 유럽에서 열린 디지털 트랜스포메이션 엑스포(Digital Transformation Expo, DTX) 2019 컨퍼런스에서 퓨어스토리지의 EMEA(유럽 및 중동, 아프리카) 지역 CTO 패트릭 스미스(Patrick Smith)는 패널토론에 참석하여 AI 윤리 문제를 바로잡지 않을 경우 앞으로 프라이버시, 데이터, 인권에 미칠 수 있는 악영향에 대해 논의했습니다.
보안 대사이자 정치 활동가 겸 인권 운동가인 개리 카스파로프(Garry Kasparov)는 토론에서 다음과 같은 의견을 피력했습니다. “AI는 사회의 균형을 관찰한 뒤 정치적으로 올바르지 않은 상황을 토대로 패턴과 알고리즘을 구축합니다. 만일 AI가 마음에 들지 않는 결과를 산출한다면 이는 전적으로 사회에 뿌리박혀 있는 문제 때문입니다. 사람들은 AI가 애초부터 존재했던 모든 문제를 해결할 수 있는 요술 지팡이 노릇을 할 것으로 기대합니다. 그러나 AI는 사람들의 기대를 충족할 수 있는 존재가 아닙니다.”
AI가 준거로 삼을 수 있는 법률을 마련해야 할까요? 그렇다면 그런 법들은 어떤 형태를 띠어야 할까요? 또한 인권은 어느 지점에서 작동해야 할까요? 법률을 제정하면 기틀은 마련되겠지만, 그 법률조차 모두의 공감을 얻는 가치관과 조화를 이루는 세상에 의존합니다. 그렇다면 올바른 AI 윤리를 확립하지 못할 경우 앞으로 어떤 위험이 닥칠까요? 한 국가의 책임 범위와 자국의 윤리관을 다른 국가에 강요하려는 시도와 관련해 많은 논의가 이루어지고 있습니다.
People.io 창립자 닉 올리버(Nic Oliver)는 “자국의 방식을 다른 국가에 강요하는, 대영제국 시대에나 있을 법한 일이 생기지 않도록 경계해야 합니다”라고 주장합니다. 설득력 있는 의견이지만, 이 경우 ‘세계적인 기술 기업들을 자주적인 권리를 행사할 수 있는 일종의 국가로 인정해야 하는가?’라는 복잡한 문제도 고려해야 합니다. DTX 2019 컨퍼런스에서는 구글, 아마존, 페이스북 등의 기업을 일종의 국가로 인정한다는 전제하에 인권을 형성하는 요소에 대해 건전한 토론을 벌일 수 있었습니다.
올리버에 따르면 “구글이 중국에서 하고 있는 일에 대해 비판한다면 인권을 근본적으로 침해하는 것입니다. 글로벌 사회에서 기업 활동을 한다면 이러한 묵시적 약속을 어기지 말아야 합니다. 누구나 인권을 존중해야 하지만, 주권국가가 다른 국가에 행사할 수 있는 영향력에는 한계가 있습니다.”
개리 카스파로프는 “이러한 결정은 사람이 내려야 합니다. 이에 대한 결정권을 AI에 넘기면 아주 이상한 결과가 나올 수 있습니다”라고 덧붙였습니다.
AI 윤리가 거시적으로 제 효과를 발휘하려면 대단히 많은 변수를 염두에 둔 채 작금의 상황을 되짚어봐야 합니다. 이 문제는 너무나도 복잡하고 지속적으로 변화하기 때문에 변곡점에 도달할 때까지 우리가 알아채지 못할 수도 있습니다. 그래도 기업과 정부는 지금이라도 당장 적절한 대책을 마련하는 데 필요한 조치를 취해야 합니다. 대책을 강구하기가 쉽지는 않습니다. 정책을 수정하는 것만으로는 턱없이 부족합니다. 그렇다면 AI 윤리에 관심이 있는 기업은 어떤 입장을 취해야 할까요?
어베스트(Avast)의 머신러닝 선임 연구원 갈리나 알페로비치(Galina Alperovich)는 “컴퓨터가 보편화되기 시작했던 20~30년 전에는 사람들이 별도의 교육 과정을 통해 컴퓨터 사용 방법을 배웠습니다. 사람들이 본인의 데이터에 대해 더 큰 책임감을 느낄 수 있도록 기업은 모든 프로그램에 AI 강좌를 추가해 사람들이 AI의 원리와 AI가 미치는 영향을 더 정확히 이해할 수 있도록 지원해야 합니다”라고 주장했습니다.
올리버는 이렇게 말합니다. “국가마다 기업이 준수해야 할 규정이나 규칙이 다르고 사람마다 개인 데이터의 사용 범위에 대한 이해도 역시 다르겠지만, 일반적으로 사용자는 개인 데이터의 사용 범위와 AI에서 개인 데이터가 처리되는 방식을 제대로 이해하지 못한 채 약관에 동의합니다. 심지어 약관에 그에 관한 조항이 아예 명시되어 있지 않은 경우도 있습니다. 개인적인 생각이지만, 현재의 규제 환경에는 사실상 스마트 시스템의 영향이 고려되어 있지 않습니다. 따라서 기업은 자사의 서비스 약관 및 개인정보 보호 정책에 윤리 및 도덕에 관한 조항을 삽입해야 합니다.”
개리 카스파로프에 따르면 “AI에 대한 소비자의 인식에는 할리우드 영화가 큰 영향을 미쳤습니다. 편견을 바로잡고 AI를 기술 도구로 사용할 수 있는 방법에 관심을 기울이는 것이 매우 중요합니다. AI라고 하더라도 궁극적인 결정권은 인간에게 남아 있을 것입니다. 인간이 여전히 중요한 역할을 한다는 사실을 잊지 않는 한, 아무리 기계에 대한 의존도를 높이더라도 인간에게 주어진 책임은 사라지지 않는다는 사실 역시 쉽게 인식할 수 있습니다.”
궁극적으로, 효과적이지 못한 AI 윤리로 인해 야기되는 위험 중 다수는 통제력 상실과 관련이 있습니다. AI는 업무에 도움이 되는 도구라는 입장에서 이뤄지는 인간의 개입은 AI에 관한 통제력을 윤리적으로 유지하는 데 중추적인 역할을 합니다. 지금부터 당장 조치를 취한다면 앞으로 수백 년간 AI가 스스로 공익을 추구하는 혁신 기술로 자리매김할 것입니다.
아래 영상에서 전체 토론 내용을 확인할 수 있습니다.