Summary
The 2024 European Commission’s AI Act seeks to ensure AI use cases and applications stay “trustworthy.” Leveraging technology solutions that help you optimize your AI investments in an ever-evolving regulatory environment can help you build a brighter future.
1984.
1984년에는 1949년 출판된 조지 오웰(George Orwell)의 디스토피아 소설 ‘1984’를 모티프로 한 리들리 스콧(Ridley Scott) 감독의 애플 광고에서 최초의 애플 매킨토시 PC가 공개되었습니다. 그리고 기계 반란으로 초토화된 2029년의 모습을 그린 영화 ‘터미네이터(The Terminator)’가 전 세계 극장가를 강타했습니다.
20년 후, 2004년 개봉된 명작 영화 ‘아이, 로봇(I, Robot)’에서는 아이작 아시모프(Isaac Asimov)의 ‘로봇 3원칙’(영문자료)이 소개되었습니다.
- 로봇은 인간을 다치게 해서는 안 되며, 인간이 해를 입는 것을 방관해서도 안 된다.
- 제1원칙에 위배되지 않는 한 로봇은 인간의 명령에 복종해야 한다.
- 제1원칙과 2원칙에 위배되지 않는 한 로봇은 스스로를 보호해야 한다.
픽션일까요? 그렇습니다. 하지만 묘하게 예언처럼 들리기도 합니다.
‘아이, 로봇’이 개봉된 지 정확히 20년이 지난 2024년, 유럽 연합(EU)의 인공지능 규제법(AI Act)은 영화에서 그려진 것과 비슷한 가이드라인을 수립하기에 이르렀습니다.
왜 이러한 문제가 화두가 되고 있을까요?
EU의 인공지능 규제법이란 무엇인가요?
인공지능 규제법(AI Act)은 AI 사용 사례와 응용을 제한하여, AI가 ‘신뢰할 수 있고(영문자료)’, ‘기본권, 안전 및 윤리적 원칙’을 존중하도록 만들기 위한 시도입니다. 사실 이는 인공지능이 아니라 인간 지능으로도 어려운 일입니다.
예로 든 영화 속 세상에서는 AI에 기반한 악당 로봇에 대한 통제력을 상실한 인류의 암울한 미래가 그려졌지만, 기술 산업 안팎에서 많은 사람들이 우려하는 부분도 사실 크게 다르지 않습니다.
일론 머스크(Elon Musk)는 “모든 AI 연구소가 GPT-4를 능가하는 AI 시스템의 개발을 최소 6개월 동안 잠정 중단할 것”을 촉구하는 공개서한(영문자료)에 수만 명과 함께 서명했습니다.
2023년 3월에 있었던 일이지만 지금까지 개발 중단은 일어나지 않았으며, 그 이후 머스크(영문자료)는 월스트리트 저널 CEO 카운슬 서밋(Wall Street Journal CEO Council Summit)에서 “AI는 인류를 통제할 수 있는 잠재력을 가지고 있다. 인류를 멸망시킬 가능성은 작지만 완전히 ‘제로(0)’는 아니다”라고 주장했습니다.
AI 규제법은 AI 시스템으로 제기되는 ‘리스크’를 수용 불가, 높음, 제한적, 최소 등 네 가지로 구분합니다. 이 법안은 사람들의 안전, 생계 및 권리에 대한 명백한 위협으로 간주되는 모든 시스템을 전면 금지합니다.
그럴듯하게 들립니다. 누구도 지구의 종말을 원하지 않기 때문입니다. 그러나 이 법안은 몇 가지 사례를 제시하는데, 그중 하나가 ‘정부에 의한 소셜 스코어링(social scoring)’입니다. 이는 아마도 중국에서 사용되고 있는 것으로 알려진 일부 시스템(영문자료)과 연관되어 있으며 시민의 경제 및 정부 관련 활동, 사회적 무결성 및 사법 신뢰성에 주된 초점을 맞추고 있습니다.
이 부분에서 상황이 조금 복잡해질 수 있습니다. 이러한 유형의 시스템 중 다수는 인간의 생명에 대한 명백한 위험이 되지 않는 목적들을 위해 생성될 것입니다. 은행이 인간의 감독 없이 신용 평가 시스템에 AI를 사용해 대출 자격을 결정하는 경우나, 마트에서 소비자 행동이나 개인의 체구, 체중, 인종, 성적 취향, 정치적 성향 같은 인구통계학적 특징을 바탕으로 고객을 타깃팅해 맞춤화된 상품 추천과 할인을 제공하는 경우를 생각할 수 있습니다. 또한 원격 생체 인식 식별(예: 영화 ‘미션 임파서블’과 같은 얼굴 인식 시스템)도 생각해 볼 수 있습니다. 이 모든 것들은 고위험으로 간주되어 원칙적으로 금지됩니다.
그렇다면 비즈니스는 어떻게 대응해야 할까요? 소비자에게 새로 구입한 전자레인지의 작동법을 알려주거나 온라인으로 구입했지만 맞지 않는 신발을 반품 처리하는 방법을 돕는 챗봇 이외에도, AI 규제법에 따라 ‘고위험군’에 속할 수 있는 시스템이 굉장히 많기 때문에 등록, 감독 및 규제가 필요합니다.
AI 시스템을 고려하고 있거나 이미 AI를 구현했다면, EU AI 규제법 컴플라이언스 검사기(영문자료)로 몇 가지 세부 사항을 실행해 위험 등급을 알아볼 수 있습니다.
AI 솔루션의 위험 등급이 명확해지면, 다음 과제는 AI 투자를 중심으로 비즈니스 사례를 구축하는 것입니다. AI 규제법은 끊임없이 변화하는 규제 환경에서 컴플라이언스를 요구함으로써 비즈니스 운영의 도전과제를 가중시킬 수 있기 때문입니다.
비즈니스 사례를 구축하는 동안 세쿼이아 캐피털(Sequoia Capital)의 데이빗 칸(David Cahn)의 분석(영문자료)을 고려해 보세요. 칸은 AI 인프라 구축에 따른 수익 기대치와 AI 생태계의 실제 수익 성장 간의 격차가 약 5천억 달러에 달한다고 설명합니다.
이는 무시할 수 없는 차이입니다.
칸의 분석은 대규모 하이퍼스케일러가 GPU에 막대한 CAPEX 자본 지출을 하고 있는 반면, 지금까지 AI 서비스에서 창출된 수익은 제한적이라는 사실에 기반하고 있습니다.
AI 투자 리스크를 어떻게 줄일 수 있을까요?
기존 대규모 언어 모델(LLM)을 생성형 AI 프로젝트에 사용하는 것도 한 가지 방법이 될 수 있습니다. 이렇게 하면 모델 학습 비용과 시간을 많이 절약할 수 있지만, 비즈니스나 고객과 관련이 없는 경우에는 사용이 제한적입니다. 또한 자체 데이터와 정보 소스로 기존 LLM을 개선하는 데 도움을 주는 검색 증강 생성(RAG) 솔루션을 도입하는 것도 고려할 수 있습니다. 데이터 인프라가 RAG 솔루션에 필요한 충분한 데이터를 제공할 수 있도록 만들어야 하지만, 스토리지 플랫폼에 대한 투자는 이제 ‘AI’ 프로젝트 투자에 비해 우선순위가 낮아지고 있습니다.
퓨어스토리지 에버그린//원(Evergreen//One)은 이를 지원할 수 있는 가장 좋은 방법입니다. 왜 그럴까요? 성능 요구 사항과 사용량, 성장률이 모두 불확실한 초기 단계에서 스토리지 비용을 크게 절감해 주기 때문입니다.
에버그린//원은 사용한 용량에 대해서만 비용을 과금합니다. 이를 통해 소비를 다각화하고 성능과 서비스 수준 계약(SLA)을 조정할 수 있으며, 궁극적으로 AI 프로젝트의 리스크를 줄이고 투자수익률(ROI)을 개선할 수 있습니다. 쿠버네티스와 컨테이너를 통해 AI 애플리케이션과 구성 요소를 구축하는 경우가 많기 때문에, 포트웍스(Portworx)를 도입하여 컨테이너 스토리지를 관리하고 오케스트레이션 하며 온프레미스 및 하이퍼스케일러 클라우드에서 보호해야 합니다.
이제 어느 정도의 GPU만 확보하면, AI 규제 시대에 AI 투자를 관리하고 최적화할 수 있는 완벽한 준비가 된 것입니다. 영화에 나온 암울한 모습의 세상은 AI가 우리를 제어하는 방법을 통제해 주는 기술 덕분에 결국 현실이 되지 않을 것입니다.
Written By:
A Brighter Future
De-risk your AI projects with storage as a service.