이미 AI에 기반한 다양한 서비스가 국내에도 서비스되고 있지만 아직 관련 입법은 이루어지지 않은 상황입니다. AI기본법에 대한 논의가 이 때문에 우리나라에서도 매우 뜨겁습니다. 이번 호에서는 AI기본법 논의를 하기에 앞서 국제 사회에서는 논의가 어떻게 진행되어 왔고 주요 국가들의 입법 현황은 어떤지 살펴보고 마지막으로 국내 쟁점 사항을 다루어보고자 합니다.

AI서비스가 가져오는 리스크

먼저 AI 서비스가 어떤 리스크를 가져오는지 간단히 살펴보고자 합니다. 생성형 AI의 급격한 기술적 발전으로 인류는 프롬프트를 사용하여 교육, 엔터테인먼트, 의료 및 과학 등 다양한 분야에서 혁신을 가져올 수 있는 잠재력을 확보하였지만, 동시에 기술을 도입하는 의사결정권자에게 여러 가지 과제를 안겨주었습니다. 대표적인 것으로 아래의 내용이 있습니다.

범주설명명
개인정보 보호 및 데이터 보안AI 시스템은 방대한 양의 개인 데이터를 필요로 하며, 이는 데이터 유출과 민감한 정보에 대한 무단 접근에 대한 우려를 불러일으킵니다. AI 시스템에 의한 대규모 개인 데이터의 수집 및 처리는 개인 프라이버시에 상당한 위험을 초래합니다.
편견과 차별AI 시스템을 편향된 데이터나 알고리즘으로 훈련될 경우 기존의 사회적 편견과 불평등을 지속 시키거나 증폭 시킬 수 있습니다.
허위 정보와 조작AI는 딥페이크를 포함한 허위 정보를 생성하고 확산 시키는 데 사용될 수 있으며, 이는 여론을 조작하고 기관에 대한 신뢰를 훼손할 수 있습니다.
일자리 대체와 경제적 혼란AI의 사용이 증가하는 부문에서 상당한 일자리 손실이 발생 할 수 있으며, 이는 경제적 혼란을 야기하고 대규모 인력 재교육을 필요로 합니다.
투명성과 책임성 부족많은 AI 시스템이 ‘블랙박스’로 작동하므로 의사 결정 과정을 이해하거나 오류 또는 편견에 대해 책임을 묻기 어렵습니다.
안전 및 자율성 위험AI 시스템이 중요 인프라와 의사 결정 과정에 더 많이 통합됨에 따라 특히 의료, 교통, 군사 응용 분야에서 안전에 대한 우려가 제기됩니다.
윤리적 문제와 인권감시, 예측 치안 및 기타 영역에서 AI의 사용은 윤리적 문제와 인권 및 시민의 자유에 대한 잠재적 위협을 제기합니다.
사이버 보안 위협AI는 사이버 공격을 더욱 정교하고 탐지하기 어려운 방향으로 강화하는데 사용될 수 있습니다. 반대로 AI 시스템 자체가 적대적 공격과 데이터 오염에 취약하여 새로운 보안 취약점이 될 수 있습니다.
권력 집중 소수의 기업이나 국가에 의한 고급 AI 시스템의 개발과 통제는 건강하지 못한 권력 집중으로 이어질 수 있으며 글로벌 불평등을 악화 시킬 수 있습니다.

예를 들어 AI 기반으로 사용자에게 맞춤형 광고를 제공하는 페이스북은 인종과 성별에 따라 광고를 편향적으로 노출한다는 것이 실증 연구를 통해 밝혀졌습니다. 해당 연구에 따르면 마트 계산원 채용 공고는 약 85%를 여성에게, 택시 운전사 채용 공고는 약 75%를 흑인에게 노출하였으며, 주택 매매 광고는 백인에게, 임대 광고는 흑인에게 상대적으로 더 노출한 것으로 밝혀졌습니다.

지적 재산권 침해에 대한 이슈도 계속 진행 중입니다. 뉴욕타임스는 ChatGPT가 불법적으로 뉴욕타임스의 기사를 복사하여 훈련하였다고 주장하며 OpenAI와 Microsoft를 상대로 소송하였습니다. 또한 아티스트들의 AI 서비스 회사를 상대로 한 소송도 현재 진행 중입니다.

정보보호와 관련해서는 국내에서는 AI 이루다가 학습에 사용한 개인정보를 그대로 노출하는 사고를 일으킨 바 있고, 프롬프트 해킹을 이용하면 학습에 사용된 원소스를 확인할 수 있다는 사실이 밝혀지면서 국내 주요 대기업은 회사 내부 정보 유출을 막기 위해 범용 AI 서비스 사용을 사내에서 금지하고 폐쇄형 AI 서비스를 오픈하거나 자체 개발한 AI 서비스를 사용하도록 하고 있습니다.

이처럼 AI서비스는 다양한 문제를 안고 있는데 인터넷 기반 서비스의 특성 상 이는 특정한 국가나 지역에 한정된 문제가 아닙니다. 이에 국제 사회에서도 몇 년 전부터 이에 대한 고민과 논의를 해오고 있습니다.

AI에 관한 최초의 정부 간 표준 – OECD AI 원칙

[2019년 5월 22일 파리에서 열린 인공지능 원칙에 관한 기자회견에서 OECD측에 앤드류 위코프(좌, 과학, 기술 및 혁신(STI) 국장)와 앤 카블랑
(우, 디지털경제정책국장)이 답변 중인 모습 ]

2019년 5월 22일. OECD 산하 디지털 경제 정책 위원회(CDEP, 현재는 DPC로 이름 변경)의 제안에 따라 OECD 이사회 장관급 회의에서 AI 원칙을 채택합니다. AI 원칙은 아래와 같이 다섯 가지 원칙과 다섯 가지 권고 사항으로 구성되어 있습니다.

원칙 타이틀설명
포용적 성장, 지속 가능한 개발 및 웰빙이 원칙은 AI 시스템이 기존의 편견을 영속화 하거나 취약 계층에 불균형한 영향을 미칠 수 있는 위험을 인식하고, 모든 이해 관계자들이 AI의 유익한 결과를 위해 협력해야 함을 강조합니다.
공정성과 사생활 보호를 포함한 인권과 민주주의 AI가 인간 중심의 가치, 기본적 자유, 평등, 공정성, 법치주의, 사회 정의, 데이터 보호 및 프라이버시와 같은 가치들과 일치하게 개발되어야 함을 강조합니다. 이 원칙은 AI 시스템이 인권에 미칠 수 있는 영향을 인식하고, 인권 영향 평가, 인간의 개입과 감독, 윤리 강령 등의 조치를 통해 AI가 인권을 보호하고 차별을 줄이는 데 기여해야 함을 제안합니다.
투명성 및 설명 가능성이 원칙은 AI 시스템의 결과에 영향을 받는 사람들이 그 결과가 어떻게 도출되었는지 이해할 수 있도록 하는 설명 가능성의 중요성을 강조하며, 이는 상황에 따라 적절한 방식으로 제공되어야 함을 제안합니다.
견고성 및 보안성과 안전성 AI 시스템의 안전성과 보안이 신뢰 구축에 중요하며, 이를 위해 견고성, 추적 가능성, 위험 관리 접근법의 적용을 강조합니다. 또한 이 원칙은 AI 시스템이 정상적인 사용 조건이나 예측 가능한 오용 상황에서 불합리한 안전 위험을 초래하지 않아야 하며, AI 행위자들이 위험 관리 접근법을 통해 예측 가능한 오용과 위험을 식별하고 보호해야 함을 제안합니다.
책임 AI서비스를 제공하는 조직이나 개인은 AI시스템의 적절한 기능을 제공하는 것을 보장해야 하는 책임이 있습니다. 이 원칙에서 얘기하는 책임에는 윤리적, 도덕적 기대를 포함하며, 부정적 결과 발생 시 더 나은 결과를 위한 조치를 취하는 것을 포함하고 있습니다.

정책 입안자를 위한 OECD 권고 사항들

  • AI 연구 및 개발에 투자
  • 포괄적인 AI 지원 생태계 육성
  • AI를 위한 상호 운용 가능한 거버넌스 및 정책 환경 형성
  • 인적 역량 구축 및 노동 시장 전환 준비
  • 신뢰할 수 있는 AI를 위한 국제 협력

OECD AI원칙에 서명한 국가들

구분국가명
OECD 회원오스트레일리아, 오스트리아, 벨기에, 캐나다, 칠레, 콜롬비아, 코스타리카, 체코, 덴마크, 에스토니아, 핀란드, 프랑스, 독일, 그리스, 헝가리, 아이슬란드, 아일랜드, 이스라엘, 이탈리아, 일본, 대한민국, 라트비아, 리투아니아, 룩셈부르크, 멕시코, 네덜란드, 뉴질랜드, 노르웨이, 폴란드, 포르투갈, 슬로바키아, 슬로베니아, 스페인, 스웨덴, 스위스, 터키, 영국, 미국
OECD 회원은 아니지만 G20에서 서명함중국, 인도, 인도네시아, 러시아, 사우디아라비아, 남아프리카공화국
그 외 서명한 국가아르헨티나, 브라질, 이집트, 몰타, 페루, 루마니아, 싱가포르, 우크라이나
* OECD AI원칙이 발표된 해 6월 G20에서도 이를 지지한다고 하였기 때문에 OECD국가가 아닌 중국, 인도 등도 포함되어 있다.

AI 원칙은 구속력을 갖고 있지 않기 때문에 중요하지 않다고 생각될 수도 있지만 우리나라를 포함한 40개국 이상이 서명한 국제 지침이라는 점에서 AI 관련 입법 및 규제의 기준점이 되는 원칙입니다. 또한 오늘날 서로 다른 지향점을 갖고 있는 것처럼 보이는 EU 행정부와 당시 도널드 트럼프 행정부가 합의한 원칙이라는 점에서도 의미가 있습니다.

OECD의 AI원칙은 이후에도 몇 차례 개정되었으며 가장 최근 본은 2024년 5월입니다. 전문은 아래에서 확인하실 수 있습니다.

유네스코(UNESCO), AI 윤리에 관한 권고안 발표

[유네스코 권고안 표지]

2021년 11월. 유네스코(UNESCO)에서는 193개 회원국 모두의 합의 아래 AI 윤리 권고안을 채택합니다.

이 권고안은 유엔 산하 기구가 내놓은 인공지능 윤리에 관한 최초의 글로벌 표준이며 모든 유네스코 회원국에 적용되는 글로벌 규범입니다. 이 권고안에서 유네스코는 ‘인권과 존엄성’, ‘신뢰성’, ‘포용성’, ‘공동 책임’, ‘윤리적 거버넌스’의 원칙을 제시합니다. 특히 포용성과 관련해서는 성평등과 환경을 주요 이슈로 언급한 것이 특징입니다. 유네스코는 이 권고안을 통해 단순히 가이드라인만 제시하는 것이 아니라 문제 해결을 위한 전략을 아래와 같이 제시합니다.

핵심전략1 – 윤리적 프레임워크

유네스코의 AI 윤리 프레임워크는 AI 시스템의 윤리적 영향을 평가하는 방법론(EIA, Ethical Impact Assessment)을 개발하여 인권과 소외 계층에 미치는 영향을 식별하고 평가하는 것을 핵심으로 합니다. 이 프레임워크는 AI 개발과 거버넌스에서 포용성과 성 평등을 강조하며, 다양한 이해관계자들의 공동 책임과 참여를 통해 AI의 윤리적 복잡성을 해결하고자 합니다. 또한 AI 시스템의 전 생애주기에 걸친 모니터링 메커니즘을 통해 책임성과 투명성을 확보하고자 합니다.

EAI는 원래 AI 시스템 조달에 참여하는 공공 부문 공무원을 돕기 위한 것으로, 구매하는 AI 시스템이 권장 사항에 명시된 윤리적 기준에 부합하는지 확인하기 위해 질문 세트를 제공합니다. 이는 동시에 개발자 또는 민간 부문 및 기타 분야의 다른 사람들이 AI 시스템의 윤리적 설계, 개발 및 배포를 용이하게 하는 데 사용할 수도 있습니다.

유네스코는 AI 기술의 영향을 평가하기 위해 윤리적 영향 평가 방법론(EIA)을 사용할 것을 지지합니다.

핵심전략2 – 이해관계자 참여

정부 및 비정부 조직, 초국적 기업, 과학 단체를 포함한 광범위한 이해관계자의 참여가 필요함을 강조합니다. 이러한 협력적 접근 방식은 AI의 윤리적 복잡성을 해결하는 데 필수적입니다.

핵심전략3 – 교육 및 인식 제고

교육과 인식 제고는 아래의 내용을 포함하고 있습니다.

  • AI를 학교 정규 교육 과정에 포함 (AI 기술의 의미, 윤리적 고려 사항, 사회와 환경에 미치는 영향에 대해 학생들에게 가르치는 것)
  • 디지털 리터러시 증진 (데이터 프라이버시, AI 시스템의 작동 방식, 그리고 이의 사용에 따른 윤리적 함의를 이해하도록 개인을 훈련시키는 것)
  • 인식 제고 프로그램 (AI발전에 대해 사회의 모든 구성원이 AI가 인권과 사회에 미치는 영향을 이해할 수 있게 하는 것)
  • 시민 참여 (AI기술에 대한 논의에 지역 사회의 시민을 참여시켜 AI사용에 대한 주인의식과 책임감을 함양)
  • 교육자 훈련 (교사 훈련 프로그램을 통해 책임 있고 윤리적인 AI사용이 교육 현장에서 이루어져야 함)

핵심전략4 – 모니터링 및 책임

AI 시스템의 수명 주기 전반에 걸쳐 철저한 모니터링이 필요하다는 점이 강조되고 있습니다. 이러한 모니터링에는 관련 이해 관계자가 참여하여 AI 기술이 신뢰할 수 있고 윤리적 기준에 부합하는지 확인하는 것을 포함합니다.

핵심전략5 – 성평등과 포용성 증진

유네스코는 AI 시스템 라이프사이클의 모든 단계에서 여성과 소녀 등 소외된 집단의 참여를 촉진하는 것이 중요하다는 점을 강조합니다. 이러한 접근 방식은 편견을 완화하고 AI 기술이 사회의 모든 부문에 혜택을 줄 수 있도록 하는 것을 목표로 합니다.

  • 유네스코는 인공지능 분야의 성 평등을 증진하기 위한 노력의 일환으로 Women4Ethical AI(W4EAI) 플랫폼을 출범시켰습니다
[2024년 2월 5~6일 슬로베니아에서 개최된 AI 윤리 글로벌 포럼에서 W4EAI 출범을 결정을 한 여성 전문가들의 모습]

Women4Ethical AI
이 플랫폼은 전 세계 학계, 시민 사회, 민간 부문 및 규제 기관의 저명한 여성 AI 전문가 17명을 하나로 묶었습니다. 각 전문가들은 연구를 공유하고, 모범 사례 저장소에 기여하며, AI의 성 평등과 관련된 중요한 문제에 대한 진전을 도모하기 위해 협력합니다.
(더 알아보기)

2024년 3월, UN 총회에서 AI 결의안 채택

[ AI결의안 채택 회의 장면 – 출처: UN News ]

유네스코의 권고안이 나온지 3년 뒤인, 올해 3월 21일. 유엔에서는 드디어 총회에서 “지속 가능한 발전을 위한 안전하고 안전하며 신뢰할 수 있는 인공 지능 시스템의 기회 포착”에 관한 결의안 A/78/L.49를 채택합니다.

본 결의안에서 ‘인공 지능 시스템’은 명시적 또는 암묵적 목적을 위해 물리적 또는 가상 환경에 영향을 미칠 수 있는 예측, 콘텐츠, 추천 또는 결정과 같은 출력을 생성하는 방법을 수신한 입력으로부터 추론하는 기계 기반 시스템으로 정의하며 이를 각 정부가 관리하도록 하였으나 단, 국가 안보 활동에 대해서는 국제법을 준수하는 한 면제하는 것으로 하였습니다. 각 국가는 AI 시스템이 기존의 인권을 보호하기 위한 국제 협약의 권리를 제한하거나 감소시키지 않도록 보장해야 합니다. 인권과 국제법을 존중하는 ‘안전하고 신뢰할 수 있는 AI시스템’을 보장하기 위해 인간의 존엄성, 투명성, 책임성, 비차별 등의 원칙을 유지할 수 있는 조치를 채택하도록 합니다. 구체적으로는 AI시스템과 관련된 위험을 식별, 평가, 완화하기 위한 규제 프레임워크와 거버넌스를 개발하는 것을 장려하고 있습니다. 궁극적으로 UN의 2030 지속가능발전목표 달성을 가속화 하는 수단으로 AI가 안전하고 신뢰할 수 있는 시스템으로서 사용되는 것을 목표로 하고 있습니다.

또한 이 과정에서 개발도상국이 공평한 혜택을 받을 수 있도록 AI가 개발도상국의 노동시장에 미칠 수 있는 잠재적 부정적 영향을 다룰 필요성을 함께 인지하고 디지털 교육과 역량 강화에 대한 지원을 앞서 발전한 국가들이 나설 것을 요구하고 있습니다.

다음 달에 이어서 2편이 연재됩니다.

Green Geek을 구독하시면 지금 보시는 것과 같은 ICT 소식과 정보를 받아보실 수 있습니다.

댓글 남기기