AI 윤리의 필요성과 기업의 노력

2023/11/17 | 작성자: 박성민 (콘텐츠 매니저)
 

인공지능(AI)은 의심할 여지 없이 우리 삶과 사회에 풍요로운 혜택을 제공합니다. 금융, 의료, 교육, 물류 등 다양한 분야에서 편의성 향상에 크게 기여하고 있습니다. 하지만 인공지능의 발전은 편리함만 가져다주는 것이 아니라 우려와 불안감을 불러일으키기도 합니다. 이러한 우려는 AI가 인권과 자유를 침해하고, 책임감과 창의성을 약화시키며, 사회적 불평등을 심화시킬 수 있다는 우려에서 비롯됩니다.

따라서 AI가 인간의 존엄성과 공익을 존중하고 옹호하는 방식으로 설계되고 운영되어야 한다는 점을 강조하며 AI 윤리와 신뢰성을 옹호하는 목소리가 커지고 있습니다. 지난 1월 1일에는 영국에서 최초의 AI 안전 서밋이 개최되어 신뢰할 수 있는 AI를 보장하기 위한 전 세계적인 노력이 시작되었습니다. AI가 지배하는 세상에서 우리의 행복을 보장하고 생명을 보호할 수 있는 방법과 기업이 이러한 과제에 대한 해결책을 함께 모색하는 방법을 살펴봅시다.

 

AI 윤리란 무엇인가요?

인공지능 윤리는 인공지능의 설계와 결과에 있어 윤리적이고 책임감 있는 사용을 권고하는 일련의 원칙, 가치 및 지침을 말합니다. "인공지능 기술 전망과 혁신 정책 방향"이라는 제목의 정부 간행물에 따르면, AI 윤리는"인공지능 이해관계자가 준수해야 할 보편적인 사회 규범과 관련 기술" 로 정의되어 있습니다.

AI의 사용과 개발에는 많은 윤리적 고려사항이 있으며, 특히 학습에 사용되는 데이터에 내재된 인지적 편향에 대한 인식과 대응이 중요합니다. AI는 다양한 데이터 소스로부터 학습하며, 이러한 데이터에는 종종 인간 사회에 내재된 편견이 포함되어 있습니다. 따라서 편견을 최소화하고 공정성과 다양성을 강화하는 실험과 알고리즘을 구축하는 것이 중요합니다.

AI 윤리 분야의 저명한 학자인 옥스퍼드대학교 옥스퍼드 인터넷 연구소의 산드라 바흐터 교수는 2021년 중앙일보와의 인터뷰에서 AI 시스템은 불평등과 불공정을 담고 있을 수 있는 과거 데이터를 학습하기 때문에 편향될 가능성이 높다고 강조한 바 있습니다. 따라서 AI 윤리의 집행과 책임을 위한 강력하고 일관되게 적용되는 메커니즘에 대한 필요성이 커지고 있습니다. AI에 대한 신뢰성은 예측 가능성, 검증 가능성, 안전성, 공정성, 투명성, 인간의 감독 및 개입 능력을 포함하는 AI 윤리를 실현하는 데 필수적인 요소입니다.

 

AI 윤리의 5가지 주요 이슈

현재 우리가 직면하고 있는 인공지능(AI)의 5대 윤리적 이슈는 다음과 같습니다:

  1. 편향성
    앞서 언급했듯이 인간은 최신성 편향, 확증 편향 등 다양한 인지적 편향을 가지고 있으며, 이러한 편향은 인간의 행동과 데이터에 영향을 미칩니다. 데이터는 머신러닝 알고리즘의 기초가 되므로, 이러한 데이터를 기반으로 학습한 AI는 사회적 불평등이나 편견과 관련된 편향을 보일 수 있습니다. 따라서 공정성과 다양성을 보장하기 위해서는 이러한 편향을 최소화하는 알고리즘을 개발하는 것이 필수적입니다.

  2. 오류와 안전
    AI 오류는 인간의 삶과 사회에 중대한 영향을 미칠 수 있습니다. 예를 들어, 의료 분야에서 AI 애플리케이션은 정확한 진단과 치료를 통해 생명을 구할 수 있지만, 오류나 잘못된 판단으로 인해 예상치 못한 잠재적인 생명 위협을 초래할 수 있습니다.

  3. 오용
    피싱, 딥페이크, 사이버 범죄와 같은 활동에서 AI의 비윤리적 또는 불법적 사용에 대한 우려가 있습니다.

  4. 개인정보 보호
    AI는 알고리즘 학습을 위해 방대한 양의 데이터에 의존하므로 개인의 프라이버시 침해나 데이터 유출을 방지하는 것이 매우 중요합니다.

  5. 킬러 로봇
    킬러 로봇은 사람의 개입 없이 인간을 공격할 수 있는 인공지능 기반의 자율 군사용 로봇을 말하며, 흔히 "치명적인 자율 무기"라고도 불립니다. 이로 인해 인간의 안전과 생명, 국제 안보 문제, 피해 발생 시 책임 소재의 모호성 등에 대한 우려가 제기되고 있습니다.

또한, 생성형 AI와 대규모 언어 모델(LLM) 시대에 접어들면서 허위 정보 생성 가능성, 지적 재산권, 일자리 대체, 보안, 개인정보 보호, 비윤리적 표현 등의 문제가 AI 윤리에 대한 주요 관심사로 떠오르고 있습니다.

이러한 윤리적 문제에 효과적으로 대응하기 위해서는 AI 윤리 기준을 확립하고 신뢰할 수 있는 AI를 개발하는 것이 중요합니다. 인공지능(AI) 개발과 활용의 바람직한 방향을 제시하기 위해 마련된 국가 인공지능 윤리 가이드라인은 세 가지 기본 원칙을 강조합니다:"인간 존엄성, 공익성, 기술 중립성". 이 원칙은 모든 분야의 모든 사람이 자발적으로 준수하고 지속적으로 개선해 나가기 위한 것입니다.

이 가이드라인은 AI 개발 및 활용의 전 과정에서 충족해야 할 10가지 주요 요건을 개괄적으로 설명하여 세 가지 기본 원칙의 실질적인 적용을 보장합니다. 이러한 요건은 다음과 같습니다:

  1. 인권 보호

  2. 개인 정보 보호

  3. 다양성 존중

  4. 피해 금지

  5. 공공 이익

  6. 연대 증진

  7. 데이터 관리

  8. 책임

  9. 안전

  10. 투명성

이 가이드라인은 윤리적 기준에 부합하고 책임감 있고 신뢰할 수 있는 AI 기술 사용을 보장하는 AI 개발 및 활용을 촉진하기 위한 프레임워크 역할을 합니다.

AI 윤리 및 신뢰성을 확보하는 방법

AI 윤리와 신뢰성을 확보하기 위해서는 학계와 산업계, 시민사회에 이르기까지 다양한 이해관계자가 효과적으로 협력하고 소통하는 것이 필수적입니다.

[AI 개발자 및 연구원]

  • AI 관련 규정 및 윤리 가이드라인을 준수하여 편향성을 최소화하는 알고리즘을 개발하고 지속적인 모니터링을 통해 안전한 운영을 보장해야 합니다.

  • 개인정보 보호 문제를 방지하기 위해 데이터 보안을 최우선으로 고려해야 합니다. 필요한 경우 데이터 사용에 대한 사용자 동의를 얻어야 합니다.

  • AI 시스템 운영 및 한계에 대한 명확한 문서화도 투명성을 유지하는 데 도움이 됩니다.

[AI 사용자 및 소비자]

  • 사용자와 소비자는 AI 시스템과 관련된 장점과 위험을 이해하고, 신뢰를 쌓으며, 비판적 사고를 키워야 합니다.

  • 지속적인 개선에 기여할 수 있도록 피드백과 요구 사항을 제공해야 합니다.

[AI 규제 기관 및 정책 입안자]

  • 규제 당국과 정책 입안자들은 AI 개발 및 사용에 대한 지침을 제공하고, 신뢰할 수 있는 AI에 대한 표준을 수립하며, 윤리적, 법적, 사회적 측면을 고려한 규정과 표준을 개발해야 합니다. 지속적인 모니터링과 감독이 필수적입니다.

[AI 교육자]

  • 인공지능 교육자는 인공지능 시스템의 기본과 원리에 대한 지식을 전파하고, 인공지능 윤리에 대한 인식과 교육을 강화하며, 인공지능과 관련된 다양한 의견과 토론을 장려해야 합니다.

AI 윤리 및 신뢰성에 대한 국제적 논의

인공지능이 전 세계의 주목을 받으면서 안전하고 신뢰할 수 있는 인공지능(AI)을 확보하기 위한 국제적 논의가 더욱 활발해지고 있습니다.

지난 1월 1일, 영국은 세계 최초로 AI 안전 서밋을 개최하며 국제적인 논의를 시작했습니다. 이 서밋에서 발표된 '블레츨리 선언'은 새로운 AI 모델을 출시하기 전에 국가 안보와 사회적 해악을 포함한 다양한 위험을 테스트하기 위한 정부와 AI 기업 간의 합의에 대한 개요를 담고 있습니다. 구글, 오픈AI, 마이크로소프트, 메타 등 저명한 기술 대기업들이 이 이니셔티브에 참여하고 있는 것으로 알려졌습니다.

또한 지난 몇 년 동안 AI 윤리와 관련된 논의가 계속되고 있습니다. 유네스코는 2021년 제41차 총회에서 193개 회원국의 만장일치로 AI의 책임 있는 발전을 보장하는 법적 인프라 구축을 안내하는 공통의 가치와 원칙을 정의하는'인공지능 윤리에 관한 권고안'을 채택했습니다. 같은 해 유럽연합(EU)은 AI 시스템을 위험 수준에 따라 4단계로 분류하는 AI 규제안을 발표했습니다. 미국도 책임감 있는 AI 기술 사용을 위한 국가 전략을 발표했습니다.

한국에서는 2020년에 인간 중심의 AI 개발과 활용을 위한 5대 원칙과 10가지 구체적인 실천 방안을 담은'AI 윤리헌장'이 선포되었습니다. 최근에는 서울디지털재단이 '서울시 AI 윤리 가이드라인'을 발표해 사용자, 사업자, 개발자의 윤리 준수의 중요성을 강조하며 AI 윤리 고려 사항의 중심에 사용자를 두었습니다.

 

AI 윤리 및 신뢰성을 위한 글로벌 AI 기업의 노력

AI 윤리 및 신뢰성에 대한 국제적인 논의와 협력이 AI 시스템의 개발과 운영에 실질적인 영향을 미치기 위해서는 AI 기업들의 적극적인 참여가 필수적입니다. 이와 관련하여 현재 글로벌 AI 기업들은 어떤 노력을 기울이고 있나요? 모델 학습을 위해 방대한 데이터에 의존하는 AI 기업들은 데이터 편향성뿐만 아니라 저작권 준수, 개인정보 보호, 투명성 등 다양한 문제를 해결하고 있습니다.

기업별 인공지능 윤리 원칙 (출처: 2023년 11월 정보과학회지_대규모 언어 모델 연구 동향 / 업스테이지 박찬준, 이원성, 김윤기, 김지후, 이활석)

해외 주요 기업의 사례를 살펴보면, 마이크로소프트(MS)는 2019년 "AI는 인간 중심적이어야 한다", "AI는 공정하고 비차별적이어야 한다", "AI는 개인정보와 보안을 보호해야 한다", "AI는 투명하고 설명 가능해야 한다" 등의 원칙을 담은 "AI 윤리 가이드라인"을 발표했습니다. 이러한 가이드라인에 따라 마이크로소프트는 이러한 원칙을 효과적으로 구현하기 위해 AI 공정성 평가 시스템인 '페어런(Fairlearn)'을 공개했습니다. 반면, 구글은 2018년에 'AI 원칙'을 발표하고 이를 실현하기 위한 조치를 취하고 있습니다. AI 모델의 성능과 편향성을 분석할 수 있는 오픈소스 도구 '텐서플로우 모델 분석 4'를 개발했습니다. 또한 구글은 AI 시스템과 관련된 윤리적 문제에 대한 연구와 교육도 지원하고 있습니다.


국내에서는 네이버, LG, SKT 등 주요 기업들이 AI 윤리 원칙 준수에 적극 동참하고 있습니다. 특히 AI 스타트업인 업스테이지가 두드러진 역할을 하고 있습니다. 업스테이지가 자체적으로 정한 5가지 AI 윤리 원칙은 단순히 제품 개발과 운영에서 준수하는 수준을 넘어선다. 데이터 수집 및 공유 플랫폼인'1T 클럽'을 통해 데이터 제공자와 모델 구축 기업이 협업하는 생태계를 구축했습니다. 1T 클럽에 참여하는 파트너는 API 사용료 할인, 엘엠의 API 사업 수익 일부 공유 등의 혜택을 받을 수 있습니다. 이를 통해 투명하고 윤리적인 양질의 데이터를 수집하여 국내 LLM(대규모 언어 모델) 기술의 자립과 글로벌 경쟁력을 강화하는 것이 목표입니다.

업스테이지의 AI 윤리 원칙

[업스테이지의 AI 윤리 원칙]

  • 인간 중심: 커뮤니티에 기반하고 인간 중심의 AI를 개발하여 사람들에게 실질적인 도움과 혜택을 제공합니다.

  • 신뢰성: 사람들이 믿을 수 있는 믿을 수 있고 신뢰할 수 있는 AI를 만듭니다.

  • 공정성: 책임감을 바탕으로 공정한 혜택을 제공하는 AI를 개발합니다.

  • 안전: 개인 정보를 보호하면서 보안과 안전에 중점을 두고 서비스를 설계합니다.

  • 보편성: 다양성을 존중하며 모두를 위한 AI를 구축합니다.


결론적으로

기술이 발전함에 따라 기술이 어떻게 우리의 삶과 사회를 더 나은 방향으로 이끌 수 있는지에 대한 논의도 계속되어야 합니다. AI의 영향력이 점점 커지는 현대 사회에서 책임과 신뢰는 더 이상 선택이 아닌 필수 요소가 되었습니다. 보다 신뢰할 수 있는 기술 발전과 더 나은 미래를 위해 기업뿐만 아니라 AI의 혜택을 받는 개인들의 지속적인 관심과 참여를 바랍니다.

 
이전 게시물
이전 게시물

2023년 AI 트렌드 키워드를 돌아보다

다음
다음

디지털 자산화 101을 위한 기술