image_pdfimage_print

인공 지능(AI) 윤리에 관한 블로그 1부에서는 AI가 프라이버시, 데이터, 인권에 미치는 영향을 논의했습니다. 이번 블로그에서는 비즈니스에 수반되는 위험과 보상을 살펴보겠습니다. 의심할 나위없이 AI는 경쟁력을 확보하려는 기업에게 각광받는 기술로 자리매김했습니다. AI를 활용하는 기업은 비정형 데이터에서 인사이트를 도출하여 한발 빠르게 혁신하고 경쟁 구도에 지각변동을 일으키며 업계를 선도할 수 있습니다. 종사하는 산업 부문과 관계없이 모든 규모의 기업은 AI를 활용하기를 원합니다.

AI가 가져올 수 있는 효과는 획기적인 수준입니다. 예를 들어 의료 연구소는 더 이른 시일 내에 질병 치료제를 발견할 수 있고, 포뮬러 원(Formula 1, F1) 팀은 랩 타임을 수 밀리초(ms)씩 단축하여 세계 챔피언의 자리에 오를 수 있으며, 흉작을 예측하여 기아를 예방하거나 직원의 업무 생산성을 높일 수 있습니다.

그러나 여느 혁명적인 기술과 마찬가지로 점검과 균형이라는 과정을 선행하여 돌발적인 또는 의도적인 오용을 막아야 합니다. AI의 경우, 편향된 데이터, 감쪽같은 가짜 동영상, 선거 개입 같은 문제가 대두되고 있습니다. 빅토리아 시대에 이루어진 1차 산업 혁명이 노동 조건을 두고 불꽃 튀는 논쟁을 일으켰듯, AI의 책임감 있는 사용에 대해서도 그와 유사한 논의가 이뤄져야 합니다. 이는 최근 퓨어스토리지가 올바른 AI 윤리를 확립하는 방법과 궁극적인 책임 소재 등을 주요 주제로 다룬 유럽 디지털 트랜스포메이션 엑스포(Digital Transformation EXPO, DTX)에서 AI 윤리위원회(AI Ethics Board) 패널토론을 후원한 여러 이유 중 하나이기도 합니다.

AI의 책임감 있는 사용은 기업의 평판 측면에서 매우 중요합니다. 뿐만 아니라 AI를 사용하는 데 있어 책임감이 동반되지 않는다면 오로지 AI가 있기에 가능해진 긍정적이고 생명을 구할 가능성을 지닌 혁신이 추진력을 잃을 우려도 있습니다.

이와 같은 현실을 직시하기 시작한 기업과 정부 기관은 AI를 윤리적으로 사용하고 개발하기 위해 적극적인 조치를 취하고 있습니다. 물론 난관이 없는 것은 아닙니다.

어베스트(Avast)의 머신러닝 선임 연구원 갈리나 알페로비치(Galina Alperovich)는 기계가 윤리적인 것과 비윤리적인 것을 추론할 수 있다는 가정과 관련하여 흥미로운 의견을 제기했습니다. “사람이 윤리를 쉽게 생각할 수 있다고 해서 기계도 쉽게 다채로운 의견을 해석하고 해석 결과에 따라 조처할 수 있는 것은 아닙니다.”

보안 대사이자 정치 활동가 겸 인권 운동가인 개리 카스파로프(Garry Kasparov)는 이렇게 덧붙였습니다. “편향성이 개입되거나 사회적 문제가 반영된 데이터를 기계에 입력했을 경우 기계가 이를 확대 해석할 우려가 있습니다. 이 문제를 해결할 때는 매우 신중한 입장을 취해야 합니다. 그리고 우리가 스스로를 하나의 사회로 바라보는 방식을 바꾸는 데 주력해야 합니다.”

기업이 자사의 AI 전략을 검토하고 소비자에게 윤리적 약속을 제시하려면 자사가 보유한 데이터를 폭넓게 파악하고 이해하는 한편, 편향된 데이터는 편향된 결과를 초래할 수 있다는 사실을 유념하는 것이 무엇보다 중요합니다. 기업은 데이터를 처리 및 익명화하고 프라이버시를 존중하는 방식을 기틀로 삼아 성장을 추구할 수 있습니다.

물론 이는 쉬운 일은 아닙니다. 게다가 위험도 수반됩니다. 그러나 문제를 해결하지 않으면 혁신이 중단되고 AI가 가져올 긍정적 효과를 누릴 수 없습니다.

AI 윤리에 관한 전체 토론 내용은 아래 영상을 참조하십시오.