책임 있는 AI

삼일PwC경영연구원

작년 11월, 인간의 요구에 따라 데이터를 찾고 학습하며, 추론과 의사결정 능력을 지녀 새로운 텍스트, 이미지, 코드 등을 빠르게 ‘생성’해낼 수 있는 생성형 AI(Generative AI)가 등장했다. 우리가 기존에 알던 기계는 ‘단순 노동’ 영역에 머물러있었으나, 생성형 AI의 등장으로 이제는 ‘창조’ 영역까지 이르러 현대 사회의 산업과 노동 패러다임을 뒤흔들고 있다.

그러나 기술혁신에는 불확실성과 리스크가 따르는 법. ‘만능’일 줄 알았던 생성형 AI가 가져올 수 있는 여러가지 윤리적, 사회적 문제가 서서히 드러나며 그에 대한 우려가 깊어지고 있다. 생성형 AI는 질문에 대한 허위답변을 제공하는 문제를 넘어 개인정보 무단도용, 저작권 침해 등의 심각한 보안 문제까지 일으킬 수 있기 때문이다. 그렇다면 우리는 생성형 AI와 같은 최첨단 AI 기술을 어디까지 신뢰할 수 있을 것인가? 그리고 이 기술을 책임감 있고 윤리적으로 사용하기 위해서는 어떻게 해야 하는가? ‘책임 있는 AI(Responsible AI)’라는 개념에 대한 논의는 이와 같은 의문에서 시작되었다.

책임 있는 AI(Responsible AI) 개념 등장

책임 있는 AI는 AI 기술에 대한 ‘신뢰’와 ‘윤리’를 추구하기 위해 제시된 방법론이다. 즉, AI 기술을 개발하고 배포하는 과정이 윤리적이고 신뢰할 수 있으며, 사용자의 개인정보와 사회적 가치를 존중하는 방향으로 이뤄지는 방식을 의미한다. 해당 개념의 중요도에 대한 언급은 예전부터 지속적으로 존재해왔으나, 현재 생성형 AI의 시대가 도래하는 시점에서 그 필요성이 더욱 대두되고 있다. 

AI로 인해 발생할 수 있는 리스크는 개인정보 유출, 작업 오류, 불량 등 어플리케이션 차원의 기술적 리스크와 더불어 기업 명성, 인력 대체, 디지털 격차 등의 기업 및 국가 차원의 리스크까지 아우른다. 이와 같은 위험 요소들을 책임 있는 AI 도입을 통해 해결할 수 있을 것이라 믿는 기업 또는 기관들은 그들만의 ‘책임 있는 AI 원칙(Responsible AI principles)’ 또는 ‘AI 거버넌스 프레임워크(AI governance framework)’를 구축하여 이를 기반으로 AI 모델을 도입하고 있다.

[그림1]  AI 리스크 종류

자료: PwC, 삼일PwC경영연구원


PwC의 책임 있는 AI 프레임워크 및 거버넌스 모델

PwC는 기업이 생성형 AI의 잠재적 리스크를 책임 있는 AI를 통해 효과적으로 다루기 위해서는 책임 있는 AI 시스템을 자사 AI 전략의 핵심적인 기능 중 하나로 도입해야한다고 주장한다. 이에 PwC도 책임 있는 AI 프레임워크를 설계했으며, 이는 AI 라이프사이클에 폭넓게 적용되는 Trust-by-design(서비스/상품 설계 시작 단계부터 리스크 최소화 및 신뢰도 향상 원칙을 녹여 그 자체로 혁신적인 ‘risk-free’ 기술이 되도록 하는 방식) 형태로, 기업내 모든 레벨의 임직원들의 역할과 긴밀히 맞닿아 있는 AI 도입 방안을 제시했다. 

[그림2] PwC의 책임 있는 AI 프레임워크

자료: PwC, 삼일PwC경영연구원

 

또한, PwC는 기업이 성공적으로 책임 있는 AI 시스템을 도입할 수 있게끔 기업 맞춤형 end-to-end 거버넌스 모델을 마련했다. 이 모델은 명확한 역할과 그에 따라 요구되는 기대사항, 활동 추적 및 지속적인 평가를 위한 메커니즘을 기반으로 기업의 top-to-bottom AI journey에 대해 가시성을 부여했다. 이를 통해 기업들은 책임 있는 AI 모델에 대한 평가 – 구축 – 입증 및 배포 – 평가 및 모니터링까지의 과정을 빠짐없이 수행할 수 있게 되는 것이다. 

[그림3] PwC의 책임 있는 AI 거버넌스 모델

자료: PwC, 삼일PwC경영연구원


‘책임 있는’ 생성형 AI 활용을 위한 고려사항

기업들이 생성형 AI 활용 방안과 책임 있는 AI 적용 방안에 대해 탐구하는 단계에서는 반드시 생성형 AI가 갖고 있는 주요 리스크 사항에 대해 염두에 두고 있어야 한다. 생성형 AI는 기존의 AI 기술 대비 ‘창작’할 수 있는 능력이 있기에, 그에 따른 리스크도 차원이 달라지기 때문이다. 기업들은 나날이 발전해나가는 생성형 AI 기술이 가지는 장단점에 대해 면밀히 분석해보고 이해해야 보다 체계적인 책임 있는 AI 시스템을 설계할 수 있을 것이다.

생성형 AI의 리스크를 파악하고 이를 해결할 수 있는 방안을 어느정도 세웠다면 다소 훌륭한 책임 있는 AI 체계를 마련했다고도 볼 수 있겠다. 그러나 점점 더 빨리 진화하는 IT 환경에 맞춰 책임 있는 AI를 적용하기 위해서는 주의 깊게 관찰하고 중요시 여겨야 할 요소들이 아직 남아있다. 이를 위해 취해야할 주요 action은 다음과 같다:

01
위기관리 기반 우선순위를 도출하라

기업 주주들의 입장에서 특정 생성형 AI 리스크가 남들보다 더 중요한 사항이 될 수도 있다. 거버넌스, 규정 준수, 위기 관리, 내부 회계 감사, 그리고 AI 팀 모두가 가장 중대한 리스크에 가장 많은 관심을 줄 수 있도록 하는 보고 체계를 마련하라.


02
사이버, 데이터 및 개인정보보호책을 개편하라

사이버 보안, 데이터 관리 및 개인정보보호 정책 갱신을 통해 해커들이 생성형 AI를 통해 개인 정보와 신원을 유출하고 미래 사이버 공격을 계획하는 리스크를 선제적으로 예방하라.


03
불투명성의 리스크를 해결하라

일부 생성형 AI 시스템에 관해서는 ‘왜’ 특정 결과물을 도출했는지, 그 과정을 이해하고 설명하는 것이 거의 불가능하다. 이러한 시스템들을 파악하여 시스템의 공정성, 정확성, 준수성을 개선하기 위한 방안이 무엇이 있는지를 고민해볼 필요가 있다.


04
이해관계자들의 책임 있는 활용·관리가 가능하도록 준비시켜라

예를 들어, 생성형 AI를 사용해야하는 직원들에게는 기본 작동 원리, 사용 방법, 아웃풋을 입증, 개선하는 방법 등을 안내하라. 그리고 규정 준수와 법률 리스크를 담당하는 팀에게는 지적 재산권 위반, 기타 연관 위기들을 식별하기 위해 필요한 기술 및 소프트웨어를 제공하라.


05
제3자를 지속 모니터링하라

어느 벤더가 생성형 AI 기반의 콘텐츠와 서비스를 제공하는지 알고, 그들이 AI 리스크를 어떻게 다루는지와, 자사가 잠재적 피해에 노출될 수 있는 가능성에 대해 미리 파악하라.


06
규제 현황을 살펴라

전세계의 정책 입안자들이 AI 개발 및 활용에 대해 더 많은 규정들을 제정 중이다. 이들은 아직 미완성 단계이나, 새로운 규정들이 지속적으로 생성되는 중임을 인지해야 한다.


07
자동화된 관리감독 시스템을 도입하라

생성형 AI 기반의 콘텐츠들이 만연한 오늘날, 새로운 소프트웨어 도구를 활용하여 AI 생성 콘텐츠를 식별하고, 아웃풋을 검증하며, 편향성 또는 개인정보 침해 여부에 대해 평가하고 필요에 따라 개선 사항을 반영하라.

Follow us