가입하기

Report

정책 입안자를 위한 가이드: AI, 대규모 언어 모델 등을 포함하여 빠르게 발전하는 기술 평가

이 문서에서 ISC는 AI와 관련하여 진행되는 다양한 세계적, 국가적 논의에 대해 정책 입안자에게 알리는 프레임워크의 개요를 탐구합니다.

ISC 가이드는 높은 수준의 원칙과 실용적이고 실행 가능한 정책 간의 격차를 해소하도록 설계된 포괄적인 프레임워크를 제공합니다. 이는 신흥 기술이 제시하는 기회와 위험 모두에 대한 공동의 이해가 시급히 필요하다는 점에 부응합니다. 급변하는 디지털 시대의 정책 연계에 종사하는 사람들에게 필수적인 문서입니다.

이 프레임워크는 경제, 정치, 환경, 보안과 같은 외부 요인과 함께 인간 및 사회 복지를 포괄하는 포괄적인 렌즈를 통해 AI와 그 파생물의 잠재력을 탐구합니다. 체크리스트의 일부 측면은 상황에 따라 다른 측면보다 더 관련성이 높을 수 있지만, 특정 사례에서 일부가 관련 없는 것으로 빠르게 식별될 수 있더라도 모든 영역을 고려하면 더 나은 결정을 내릴 가능성이 더 높아 보입니다. 이것이 체크리스트 접근 방식의 고유한 가치입니다.

“빠른 기술 혁신과 복잡한 글로벌 과제로 특징지어지는 시대에 잠재적 영향에 대한 포괄적이고 다차원적인 분석을 위한 ISC의 프레임워크는 리더들이 정보를 바탕으로 책임감 있는 결정을 내릴 수 있도록 지원합니다. 이는 우리가 기술적으로 발전함에 따라 윤리적, 사회적, 경제적 영향을 신중하게 고려하도록 보장합니다.”

Peter Gluckman, ISC 회장

유네스코, OECD, 유럽연합 집행위원회, UN 등이 높은 수준의 원칙을 발표하고 잠재적인 거버넌스, 규제, 윤리 및 안전 문제에 관해 다양한 논의가 계속되고 있지만, 이러한 원칙과 일반 ​​원칙 사이에는 큰 격차가 있습니다. 거버넌스 또는 규제 프레임워크. ISC는 정책 입안자를 위한 새로운 가이드를 통해 이러한 요구를 해결합니다.

정책 입안자를 위한 이 가이드는 규제 체제를 금지하기 위한 것이 아니라 정부 및 다자간 시스템을 포함한 이해관계자가 개발할 수 있는 모든 평가 및 규제 프로세스를 뒷받침할 수 있는 적응적이고 진화하는 분석 프레임워크를 제안하기 위한 것입니다.

“이 프레임워크는 현재와 미래에 대한 기술의 의미에 대한 합의를 구축할 수 있는 기반을 제공하므로 AI에 대한 글로벌 대화에서 중요한 단계입니다.” 

Hema Sridhar, 전 뉴질랜드 국방부 수석 과학 고문, 현재 뉴질랜드 오클랜드 대학교 선임 연구원.

2023년 XNUMX월부터 AI의 윤리와 안전을 더욱 고려하는 여러 가지 중요한 국가 및 다자간 이니셔티브가 있었습니다. AI가 금융, 정부, 법률, 교육 등 일부 핵심 시스템과 다양한 지식 시스템(과학 및 토착 지식 포함)의 무결성에 미치는 영향에 대한 우려가 커지고 있습니다. 프레임워크는 이러한 측면을 추가로 반영합니다.

현재까지 ISC 회원과 국제 정책 결정 커뮤니티로부터 받은 피드백은 개정된 분석 프레임워크 버전에 반영되어 현재 정책 입안자를 위한 지침으로 발표되었습니다.

정책 입안자를 위한 가이드: AI, 대규모 언어 모델 등을 포함하여 빠르게 발전하는 기술 평가

이 토론 문서는 AI와 관련하여 진행되는 여러 글로벌 및 국가 토론을 알리기 위한 초기 프레임워크의 개요를 제공합니다.

조직에서 사용할 수 있는 프레임워크

조직에서 사용할 프레임워크를 다운로드하세요.

여기서는 조직에서 사용할 수 있는 편집 가능한 Excel 시트로 프레임워크 도구를 제공합니다. 오픈 소스 형식을 선호하는 경우 문의해 주세요. [이메일 보호].

개요

빠르게 부상하는 기술은 사용, 거버넌스 및 잠재적 규제와 관련하여 어려운 문제를 제시합니다. 인공 지능(AI)과 그 사용에 대한 지속적인 정책과 공개 토론으로 인해 이러한 문제가 심각하게 주목받고 있습니다. AI에 대한 광범위한 원칙은 유네스코, OECD, UN 및 영국의 Bletchley 선언을 포함한 기타 기관에서 발표되었으며, 예를 들어 유럽 연합(EU) AI를 통해 기술 측면을 규제하려는 관할권 시도가 새롭게 떠오르고 있습니다. 법 또는 최근 미국 AI 행정 명령.

AI의 사용은 지정학적 격차와 모든 소득 수준의 국가에서 이러한 포럼과 기타 포럼에서 길게 논의되는 반면, 높은 수준의 원칙 개발과 규제, 정책, 거버넌스를 통한 실행에의 통합 사이에는 존재론적 격차가 남아 있습니다. 또는 관리 접근 방식. 원칙에서 실천까지의 경로는 제대로 정의되지 않았지만 AI 개발 및 적용의 특성과 속도, 관련 관심의 다양성, 가능한 적용 범위를 고려할 때 어떤 접근 방식도 지나치게 일반적이거나 규범적일 수 없습니다.

이러한 이유로 비정부 과학계는 계속해서 특별한 역할을 수행하고 있습니다. 사회과학 및 자연과학 분야의 다양한 구성원으로 구성된 국제과학위원회(ISC)는 빠르게 변화하는 디지털 기술과 관련된 위험, 이점, 위협 및 기회를 고려한 예비 분석 프레임워크를 제시하는 토론 보고서를 2023년 XNUMX월에 발표했습니다. AI를 고려하기 위해 개발되었지만 본질적으로 기술에 구애받지 않으며 합성 생물학 및 양자와 같은 다양한 신흥 기술과 파괴적인 기술에 적용될 수 있습니다. 그 토론 문서는 학계와 정책 입안자들의 피드백을 요청했습니다. 압도적인 피드백으로 인해 그러한 분석이 필요해졌으며 AI와 같은 신흥 기술을 다루는 귀중한 접근 방식이 되었습니다.

프레임워크의 목적은 정부, 무역 협상가, 규제 기관, 시민 사회 및 업계를 포함한 모든 이해관계자에게 이러한 기술의 발전에 대해 알리고 그들이 긍정적이든 부정적이든 영향을 고려할 수 있는 방식을 구성하는 데 도움이 되는 도구를 제공하는 것입니다. 기술 자체, 더 구체적으로는 특정 응용 분야입니다. 이 분석 프레임워크는 정부 및 업계 이해관계와 무관하게 개발되었습니다. 이는 광범위한 협의와 피드백을 바탕으로 기술과 그 의미의 모든 측면을 포괄하는 관점에서 최대한 다원적입니다.

정책 입안자를 위한 이 토론 문서는 규제 체제를 금지하기 위한 것이 아니라 정부 및 다자간 시스템을 포함한 이해관계자가 개발할 수 있는 모든 평가 및 규제 프로세스를 뒷받침할 수 있는 적응적이고 진화하는 분석 프레임워크를 제안하기 위한 것입니다.

전 세계적으로나 국가적으로 의사결정자들이 AI와 같은 신기술의 위험과 보상의 균형을 맞추기 위해 적절한 정책 설정과 수단을 고려할 때, 분석 프레임워크는 잠재적인 영향 전체가 적절하게 반영되도록 보장하는 보완 도구로 사용됩니다.

배경: 왜 분석 프레임워크인가?

AI의 복잡성과 영향을 수반하는 기술의 급속한 출현으로 인해 많은 이점이 있다는 주장이 제기되고 있습니다. 그러나 이는 또한 개인 수준에서 지정학적 수준에 이르기까지 상당한 위험에 대한 두려움을 불러일으킵니다.1 공개적으로 표현된 견해는 스펙트럼의 극단에서 발생하는 경향이 있기 때문에 지금까지의 많은 논의는 이분법적인 의미로 고려되었습니다. AI에 대한 찬반 주장은 과장된 경우가 많으며 기술의 특성상 평가하기 어렵습니다.

과장법이 보정되고 보다 세부적인 평가로 대체되는 경우에는 보다 실용적인 접근 방식이 필요합니다. AI 기술은 계속 발전할 것이며, 역사를 보면 사실상 모든 기술은 유익하기도 하고 유해하기도 합니다. 따라서 문제는 이 기술로부터 유익한 결과를 달성하는 동시에 유해한 결과의 위험을 줄이는 방법입니다. 그 중 일부는 실존적 규모일 수 있습니다.

미래는 항상 불확실하지만, 상대적으로 예방적인 접근 방식을 장려할 만큼 AI 및 생성 AI에 관한 신뢰할 수 있고 전문가의 목소리가 충분합니다. 또한 AI는 다양한 유형의 사용자가 광범위하게 사용하고 적용할 수 있는 기술이므로 시스템적 접근이 필요합니다. 이는 개인, 사회 생활, 시민 생활, 사회 생활 및 글로벌 맥락에서 AI 사용의 의미를 고려할 때 전체 맥락을 고려해야 함을 의미합니다.

대부분의 다른 기술과 달리 디지털 및 관련 기술의 경우 개발, 출시 및 적용 사이의 시간이 매우 짧으며 이는 주로 제작사 또는 대행사의 이익에 따라 결정됩니다. 본질적으로 그리고 디지털 백본을 기반으로 한다는 점을 고려할 때 AI는 이미 대규모 언어 모델 개발에서 볼 수 있듯이 빠르게 보급되는 애플리케이션을 갖게 될 것입니다. 결과적으로 일부 속성은 출시 후에만 명백해질 수 있으며, 이는 악의적이거나 자비로운 예상치 못한 결과가 발생할 위험이 있음을 의미합니다.

특히 다양한 지역과 문화에 걸쳐 중요한 사회적 가치 차원은 사용이 인식되고 수용되는 방식에 영향을 미칩니다. 게다가 지정학적 이해관계가 이미 논의를 지배하고 있으며, 주권적 이해와 다자적 이해가 지속적으로 교차하여 경쟁과 분열을 조장하고 있습니다.

지금까지 가상 기술에 대한 규제의 대부분은 EU AI법이 적용되었음에도 불구하고 주로 '원칙'과 자발적 준수라는 관점을 통해 확인되었습니다.2 마찬가지로 우리는 보다 집행 가능하지만 다소 좁은 규정으로의 전환을 목격하고 있습니다. 효과적인 글로벌 또는 국가 기술 거버넌스 및/또는 규제 시스템을 구축하는 것은 여전히 ​​어려운 일이며 확실한 해결책은 없습니다. 발명가부터 생산자, 사용자, 정부 및 다자간 시스템에 이르기까지 체인을 따라 여러 계층의 위험 정보에 기반한 의사 결정이 필요합니다.

유네스코, OECD, 유럽연합 집행위원회, UN 등이 고위급 원칙을 공포하고 잠재적인 거버넌스, 규제, 윤리, 안전 문제에 관해 다양한 고위급 논의가 계속되고 있지만, 그 사이에는 큰 격차가 있습니다. 원칙과 거버넌스 또는 규제 프레임워크. 이 문제를 해결해야 합니다.

ISC는 출발점으로 모든 개발자, 규제 기관, 정책 자문가, 소비자 또는 의사 결정자가 참조할 수 있는 고려 사항 분류법 개발을 고려합니다. 이러한 기술의 광범위한 의미를 고려할 때, 그러한 분류는 편협하게 초점을 맞춘 구성보다는 의미의 전체를 고려해야 합니다. 의사 결정에 대한 지정학적 이해관계의 영향으로 인해 글로벌 단편화가 증가하고 있으며, 이 기술의 긴급성을 고려할 때 독립적이고 중립적인 목소리가 통합되고 포용적인 접근 방식을 지속적으로 옹호하는 것이 필수적입니다.


1) 힌두스탄 타임즈. 2023. G20은 기술 변화에 관한 국제 패널을 설치해야 합니다.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EU 인공지능법. 2023. https://artificialintelligenceact.eu

분석 프레임워크의 개발

ISC는 자연과학과 사회과학을 통합하는 주요 글로벌 비정부기구입니다. 전 세계적으로 그리고 학문적으로 접근할 수 있다는 것은 앞으로의 복잡한 선택을 알리기 위해 독립적이고 전 세계적으로 관련 있는 조언을 생성할 수 있는 좋은 위치에 있다는 것을 의미합니다. 특히 이 분야의 현재 목소리는 주로 업계나 주요 기술 강국의 정책 및 정치 공동체에서 나오므로 더욱 그렇습니다.

비정부 평가 프로세스에 대한 고려를 포함하는 광범위한 논의 기간을 거쳐 ISC는 모든 사람의 담론과 의사결정의 기초로 사용할 수 있는 적응형 분석 프레임워크를 생성하는 것이 가장 유용한 기여가 될 것이라고 결론지었습니다. 나타나는 공식적인 평가 프로세스를 포함하여 이해 관계자.

2023년 XNUMX월 토론과 피드백을 위해 공개된 예비 분석 프레임워크는 정부와 비정부 기관 모두에서 사용할 수 있도록 설계된 포괄적인 체크리스트 형식을 취했습니다. 이 프레임워크는 경제, 정치, 환경, 보안과 같은 외부 요인뿐만 아니라 인간과 사회의 복지를 포괄하는 넓은 렌즈를 통해 AI 및 그 파생물과 같은 기술의 잠재력을 식별하고 탐구했습니다. 체크리스트의 일부 측면은 상황에 따라 다른 측면보다 더 관련성이 높을 수 있지만, 특정 사례에서 일부가 관련 없는 것으로 빠르게 식별될 수 있더라도 모든 영역을 고려하면 더 나은 결정을 내릴 가능성이 더 높아 보입니다. 이것이 체크리스트 접근 방식의 고유한 가치입니다.

예비 프레임워크는 디지털 웰빙에 관한 INGSA(국제 정부 과학 자문 네트워크) 보고서3 및 AI 시스템 분류를 위한 OECD 프레임워크4를 포함하여 이전 작업과 사고에서 파생되어 잠재적인 기회, 위험 및 영향의 전체성을 제시합니다. AI의. 이러한 이전 제품은 시간과 상황에 따라 의도가 더욱 제한되었습니다. 단기 및 장기적으로 모든 문제를 제시하는 포괄적인 프레임워크가 필요합니다.

이 토론서는 발표 이후 많은 전문가와 정책 입안자들로부터 상당한 지지를 받았습니다. 많은 사람들이 기술의 위험과 영향을 신중하고 적극적으로 고려할 수 있는 적응형 프레임워크를 개발하라는 권장 사항을 구체적으로 승인했으며, 그렇게 함으로써 항상 개인에서 사회 및 시스템에 이르기까지 모든 측면을 고려합니다.

피드백을 통해 이루어진 주요 관찰 중 하나는 프레임워크에서 고려된 여러 가지 의미가 본질적으로 다면적이며 여러 범주에 걸쳐 확장된다는 점을 인정한 것입니다. 예를 들어, 허위정보는 개인의 관점과 지정학적 관점 모두에서 고려될 수 있습니다. 따라서 그 결과는 광범위할 것입니다.

프레임워크를 테스트하기 위해 사례 연구나 예시를 포함하는 옵션도 제안되었습니다. 이는 다양한 상황에서 실제로 어떻게 사용될 수 있는지 보여주는 지침을 개발하는 데 사용될 수 있습니다. 그러나 이는 중요한 작업이 될 수 있으며 다양한 그룹이 이 프레임워크의 사용을 인식하는 방식을 제한할 수 있습니다. 이는 특정 관할권이나 상황의 전문가와 협력하는 정책 입안자가 수행하는 것이 가장 좋습니다.

2023년 XNUMX월부터 AI의 윤리와 안전을 더욱 고려하는 여러 가지 중요한 국가 및 다자간 이니셔티브가 있었습니다. AI가 금융, 정부, 법률, 교육 등 일부 핵심 시스템과 다양한 지식 시스템(과학 및 토착 지식 포함)의 무결성에 미치는 영향에 대한 우려가 커지고 있습니다. 개정된 프레임워크는 이러한 측면을 추가로 반영합니다.

현재까지 접수된 피드백은 개정된 분석 프레임워크 버전에 반영되어 현재 정책 입안자들을 위한 지침으로 발표되었습니다.

프레임워크는 AI 및 관련 기술의 맥락에서 제시되지만 양자 및 합성 생물학과 같이 빠르게 떠오르는 다른 기술의 고려 사항으로 즉시 전환 가능합니다.


3) Gluckman, P. 및 Allen, K. 2018. 급속한 디지털 및 관련 혁신의 맥락에서 웰빙을 이해합니다. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. AI 시스템 분류를 위한 OECD 프레임워크. OECD 디지털 경제 보고서, No. 323,#. 파리, OECD 출판.
https://oecd.ai/en/classificatio

프레임 워크

다음 표는 추정 분석 프레임워크의 차원을 나타냅니다. 각 도메인이 왜 중요한지 설명하기 위해 예가 제공됩니다. 상황에 따라 프레임워크에는 상황에 맞는 확장이 필요합니다. 플랫폼 개발 중에 발생하는 일반적인 문제와 특정 애플리케이션 중에 나타날 수 있는 문제를 구별하는 것도 중요합니다. 여기에 포함된 단일 고려사항을 우선순위로 다루어서는 안 되며, 따라서 모두 검토해야 합니다.

문제는 아래와 같이 크게 다음 범주로 분류됩니다.

  • 웰빙(개인이나 자아, 사회, 사회생활, 시민생활 포함)
  • 무역과 경제
  • 환경
  • 지정학적 및 지정학적
  • 기술(시스템 특성, 설계 및 사용)

표에는 새로운 기술을 평가할 때 고려해야 할 차원이 자세히 나와 있습니다.

🔴INGSA. 2018. 급속한 디지털 및 관련 혁신의 맥락에서 웰빙을 이해합니다.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 새로운 설명자(광범위한 상담, 피드백 및 문헌 검토를 통해 출처)

🟡 AI 시스템 분류를 위한 OECD 프레임워크: 효과적인 AI 정책을 위한 도구입니다.
https://oecd.ai/en/classification

영향의 차원: 개인/자기

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🟡사용자의 AI 역량시스템과 상호 작용할 가능성이 있는 사용자는 시스템 속성을 얼마나 유능하고 인식하고 있습니까? 관련 사용자 정보 및 주의사항은 어떻게 제공되나요?
🟡 영향을 받는 이해관계자시스템의 영향을 받는 주요 이해관계자는 누구입니까(개인, 지역사회, 취약계층, 부문별 근로자, 아동, 정책 입안자, 전문가 등)?
🟡 선택성사용자에게 시스템을 거부할 수 있는 기회가 제공됩니까, 아니면 결과에 이의를 제기하거나 수정할 수 있는 기회가 제공됩니까?
🟡인권과 민주적 가치에 대한 위험시스템이 개인정보 보호, 표현의 자유, 공정성, 비차별 등을 포함하되 이에 국한되지 않는 인권에 근본적으로 영향을 미치나요?
🟡사람들의 웰빙에 대한 잠재적 영향시스템 영향 영역이 개별 사용자의 웰빙(직업 품질, 교육, 사회적 상호 작용, 정신 건강, 정체성, 환경 등)과 관련되어 있습니까?
🟡 인간 노동력 대체 가능성인간이 실행하던 작업이나 기능을 시스템이 자동화할 가능성이 있나요? 그렇다면 후속 결과는 무엇입니까?
🟡 정체성, 가치 또는 지식 조작 가능성시스템이 사용자의 신원 또는 정보를 조작할 수 있도록 설계되었거나 잠재적으로 가능합니까?
가치관을 설정했습니까, 아니면 허위 정보를 퍼뜨렸습니까?
🔴 자기 표현과 자기 실현의 기회기교와 자기 의심의 가능성이 있습니까? 거짓일 가능성이 있거나
입증할 수 없는 전문성 주장?
🔴 자기 가치 측정이상적인 자아를 묘사해야 한다는 압박감이 있나요? 자동화가 감각을 대체할 수 있을까
개인적인 성취감? 시스템과 경쟁해야 한다는 압력이 있습니까?
직장? 허위 정보로부터 개인의 평판을 보호하는 것이 더 어렵습니까?
🔴 개인정보 보호개인정보 보호에 대한 책임이 분산되어 있습니까?
개인 데이터가 어떻게 사용되는지에 대한 가정이 이루어지고 있습니까?
🔴 자율성AI 시스템이 과도한 의존을 유발하여 인간의 자율성에 영향을 미칠 수 있습니까?
최종 사용자?
🔴 인간 발달다음과 같은 인간 발달을 위한 핵심 기술 습득에 영향이 있습니까?
집행 기능이나 대인 관계 기술, 주의 집중 시간의 변화 등이 영향을 미칩니다.
학습, 성격 발달, 정신 건강 문제 등?
🔴 개인 건강 관리자가 진단이나 맞춤형 건강 관리 솔루션에 대한 주장이 있습니까? 그렇다면,
규제 표준에 따라 검증되었습니까?
🔴 정신 건강불안, 외로움 또는 기타 정신 건강 문제가 증가할 위험이 있습니까?
기술이 그러한 영향을 개선할 수 있습니까?
🟢 인간 진화대규모 언어 모델과 인공 일반 지능이
인류 진화의 과정?
🟢 인간-기계 상호작용사용이 시간이 지남에 따라 개인의 기술 탈취 및 의존으로 이어질 수 있습니까? ~이다
인간 상호작용에 영향이 있나요?
5) 프레임워크에서 고려되는 기술 기준은 특히 AI에 대한 것이며 다른 기술에 대해서도 적절하게 수정되어야 합니다.

영향의 차원: 사회/사회생활

기준 이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🔴 사회적 가치시스템이 사회의 본질을 근본적으로 바꾸고, 이전에 반사회적이라고 간주되었던 사상을 정상화하거나, 시스템이 적용되는 문화의 사회적 가치를 침해합니까?
🔴 사회적 상호작용정서적 관계를 포함하여 의미 있는 인간 접촉에 영향이 있습니까?
🔴 인구 건강시스템이 주민 건강 의도를 발전시키거나 훼손할 가능성이 있습니까?
🔴 문화적 표현문화적 전유나 차별이 증가할 가능성이 높거나 해결하기가 더 어렵습니까? 의사결정 시스템에 의존하면 문화적으로 관련된 사회 부문의 유대가 배제되거나 소외되는가?
🔴 공교육교사의 역할이나 교육 기관에 영향이 있나요? 시스템이 학생들 사이의 디지털 격차와 불평등을 강조하거나 감소시키는가? 지식이나 비판적 이해의 본질적인 가치가 발전했거나 훼손되었는가?
🟢 왜곡된 현실무엇이 참인지 식별하는 데 사용되는 방법이 여전히 적용 가능합니까? 현실에 대한 인식이 손상되었는가?

영향의 차원: 경제적 맥락(무역)

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🟡 산업 부문시스템은 어떤 산업 부문(금융, 농업, 의료, 교육, 국방 등)에 배포됩니까?
🟡 비즈니스 모델시스템은 어떤 비즈니스 기능에 사용되며 어떤 용량으로 사용됩니까? 시스템은 어디에 사용됩니까(민간, 공공, 비영리)?
🟡 중요한 활동에 대한 영향 시스템 기능이나 활동이 중단되면 필수 서비스나 중요 인프라에 영향을 미치나요?
🟡배포 범위시스템은 어떻게 배포됩니까(부대 내에서의 좁은 사용과 국내/국제적으로 널리 사용)?
🟡 기술 성숙도시스템이 기술적으로 얼마나 성숙했나요?
🟢 상호 운용성 자유 무역을 방해하고 파트너와의 협력에 영향을 미치는 국가적 또는 세계적 사일로가 있을 가능성이 있습니까?
🟢 기술 주권전체 AI 공급망에 대한 통제를 포함하여 기술 주권에 대한 욕구가 행동을 주도합니까?
🔴 소득 재분배 및 국가 재정 수단주권국가의 핵심 역할(예: 준비은행)이 훼손될 수 있습니까? 시민들의 기대와 의미(사회적, 경제적, 정치적 등)를 충족시키는 국가의 능력이 향상될 것인가 아니면 감소될 것인가?
🟢 디지털 격차(AI 격차) 기존 디지털 불평등이 악화되는가, 아니면 새로운 불평등이 창출되는가?

영향의 차원: 시민 생활

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🔴 거버넌스 및 공공 서비스거버넌스 메커니즘과 글로벌 거버넌스 시스템이 긍정적으로 또는 부정적으로 영향을 받을 수 있습니까?
🔴 뉴스 미디어대중 담론이 인구 수준에서 양극화되고 고착될 가능성이 있습니까? 제4계급에 대한 신뢰 수준에 영향이 있을까요? 기존의 언론인 윤리 및 청렴성 기준이 더 큰 영향을 받게 될까요?
🔴 법치책임을 질 개인이나 조직을 식별하는 능력에 영향이 있습니까(예: 불리한 결과에 대해 알고리즘에 할당할 책임의 종류)? 주권(환경, 재정, 사회 정책, 윤리 등)이 상실되었습니까?
🔴정치와 사회적 결속정치적 견해가 더욱 확고해지고 합의 구축 기회가 줄어들 가능성이 있습니까? 집단을 더욱 소외시킬 가능성이 있나요? 적대적인 정치 스타일이 어느 정도 가능합니까?
🟢 소셜 라이선스이해관계자의 사용 승인을 위해 고려해야 할 개인 정보 보호 문제, 신뢰 문제 및 도덕적 문제가 있습니까?
🟢 원주민 지식원주민 지식과 데이터가 손상되거나 남용될 수 있나요? 허위 진술, 허위 정보 및 착취로부터 보호하기 위한 적절한 조치가 있습니까?
🟢 과학 시스템학술 및 연구 무결성이 손상되었습니까? 과학에 대한 신뢰가 상실된 걸까요? 오용, 남용 또는 남용의 가능성이 있습니까? 과학 실천의 결과는 무엇입니까?

영향의 차원: 지정학적/지정학적 맥락

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🟢 정밀 감시시스템이 개인의 행동 및 생물학적 데이터에 대해 교육을 받았고 개인이나 그룹을 착취하는 데 사용될 수 있습니까?
🟢 디지털 경쟁국가 또는 비국가 행위자(예: 대규모 기술 기업)가 시스템과 데이터를 활용하여 다른 국가의 인구와 생태계를 이해하고 통제하거나 관할권 통제를 약화시킬 수 있습니까?
🟢 지정학적 경쟁시스템이 경제, 의료, 안보 이익을 위해 개인 및 그룹 데이터를 활용하는 데 있어 국가 간의 경쟁을 자극할 수 있습니까?
🟢 글로벌 권력의 변화세계의 주요 지정학적 행위자로서 국민국가의 지위가 위협받고 있습니까? 기술 기업은 한때 국민 국가의 전유물이었던 권력을 휘두르고 독립적인 주권 행위자가 되었습니까(신흥 기술극 세계 질서)?
🟢 허위 정보시스템이 사회 결속, 신뢰 및 민주주의에 영향을 미치면서 국가 및 비국가 행위자에 의한 허위 정보의 생산 및 전파를 촉진할 수 있습니까?
🟢 이중 용도 애플리케이션군사용과 민간용 모두 가능합니까?
🟢 글로벌 질서의 분열협력을 방해하고 적용의 불일치를 초래하며 갈등의 여지를 만드는 사일로 또는 규제 및 규정 준수 클러스터가 개발될 수 있습니까?

영향의 차원: 환경

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🟢 에너지 및 자원 소비(탄소 발자국)시스템과 요구 사항이 응용 프로그램을 통해 얻은 효율성 향상보다 에너지 및 자원 소비의 활용을 증가시키는가?
🟢에너지원시스템의 에너지는 어디에서 공급됩니까(재생 가능 에너지와 화석 연료 등)?

영향의 차원: 데이터 및 입력

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🟡 방향 및 수집데이터와 입력이 인간, 자동화된 센서 또는 둘 다에 의해 수집됩니까?
🟡 데이터 출처전문가의 데이터와 의견은 제공, 관찰, 합성 또는 파생되었습니까? 출처를 확인하기 위한 워터마크 보호 기능이 있습니까?
🟡 데이터의 동적 특성데이터가 동적, 정적, 수시로 업데이트됩니까, 아니면 실시간으로 업데이트됩니까?
🟡 권리데이터가 독점인가, 공개인가, 아니면 개인인가(식별 가능한 개인과 관련)?
🟡 식별 가능성 및 개인 데이터개인 데이터인 경우 데이터가 익명 처리되거나 가명 처리됩니까?
🟡 데이터 구조데이터가 구조화되어 있습니까, 반구조화되어 있습니까, 복잡한 구조화되어 있습니까, 아니면 구조화되어 있지 않습니까?
🟡 데이터 형식데이터와 메타데이터의 형식은 표준화되어 있습니까, 아니면 비표준화되어 있습니까?
🟡 데이터 규모데이터세트의 규모는 얼마나 됩니까?
🟡 데이터의 적절성과 품질 데이터 세트가 목적에 적합한가요? 표본 크기가 적절한가? 대표성이 있고 충분히 완전합니까? 데이터가 얼마나 시끄러운가요? 오류가 발생하기 쉬운가요?

충격의 크기: 모델

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🟡 정보 가용성시스템 모델에 대한 정보가 있습니까?
🟡 AI 모델 유형모델이 상징적(인간이 생성한 규칙)인가요, 통계적(데이터 사용)인가요, 아니면 하이브리드인가요?
🟡 모델과 관련된 권리모델이 오픈 소스 또는 독점, 자체 또는 타사에서 관리됩니까?
🟡 여러 모델 중 단일 모델시스템이 하나의 모델로 구성되어 있습니까, 아니면 여러 개의 상호 연결된 모델로 구성되어 있습니까?
🟡 생성적 또는 차별적모델은 생성적인가요, 차별적인가요, 아니면 둘 다인가요?
🟡 모델 만들기시스템은 인간이 작성한 규칙, 데이터, 지도 학습 또는 강화 학습을 기반으로 학습합니까?
🟡 모델 진화(AI 드리프트)모델이 현장의 데이터와 상호 작용하여 발전하거나 능력을 획득합니까?
🟡 연합 또는 중앙 학습모델이 중앙에서 훈련됩니까, 아니면 여러 로컬 서버나 '에지' 장치에서 훈련됩니까?
🟡 개발/유지보수모델이 보편적인지, 사용자 정의가 가능합니까, 아니면 AI 행위자의 데이터에 맞춰져 있습니까?
🟡 결정적 또는 확률적 모델이 결정론적 방식으로 사용됩니까, 아니면 확률론적 방식으로 사용됩니까?
🟡 모델 투명성 사용자가 모델 출력 및 제한 사항을 이해하거나 제약 조건을 사용할 수 있도록 정보를 사용할 수 있습니까?
🟢 계산상의 한계시스템에 계산상의 제한이 있습니까? 능력 향상이나 확장 법칙을 예측하는 것이 가능합니까?

영향의 차원: 작업 및 결과

기준이것이 분석에 어떻게 반영될 수 있는지에 대한 예
🟡 시스템에서 수행되는 작업시스템은 어떤 작업(인식, 이벤트 감지, 예측 등)을 수행합니까?
🟡 작업과 작업 결합시스템이 여러 작업과 작업(콘텐츠 생성 시스템, 자율 시스템, 제어 시스템 등)을 결합합니까?
🟡 시스템의 자율성 수준 시스템의 행동은 얼마나 자율적이며 인간은 어떤 역할을 하는가?
🟡 인간 참여 정도AI 시스템의 전반적인 활동을 감독하고 어떤 상황에서든 AI 시스템을 언제, 어떻게 사용할지 결정할 수 있는 능력을 감독하기 위한 인간의 개입이 있습니까?
🟡 핵심 애플리케이션시스템이 인간 언어 기술, 컴퓨터 비전, 자동화 및/또는 최적화 또는 로봇공학과 같은 핵심 응용 분야에 속합니까?
🟡 평가시스템 출력을 평가하는 데 사용할 수 있는 표준이나 방법이 있습니까?

이 프레임워크를 어떻게 사용할 수 있나요?

이 프레임워크는 다음을 포함하여 다양한 방법으로 사용될 수 있습니다.

  • 규제 또는 거버넌스 목적을 위한 높은 수준의 원칙과 평가 사이의 격차를 해소합니다. 프레임워크는 관련 이해관계자가 고려할 가치가 있는 다양한 문제에 대한 검증된 공통 분류법을 기반으로 정보를 제공하고 추가 사고를 형성함으로써 이를 지원할 수 있습니다. 예를 들어, 국가 차원에서 프레임워크는 정부가 이해관계자 그룹 전반에 걸쳐 위험과 기회에 대한 공통 기반을 구축하기 위한 국가 AI 전략 및 정책을 개발할 때 도구로 사용될 수 있습니다.
  • 영향 평가를 알리기 위해. EU AI법은 AI 도구를 제공하거나 프로세스에 AI를 채택하는 조직이 영향 평가를 수행하여 이니셔티브의 위험을 식별하고 적절한 위험 관리 접근 방식을 적용하도록 요구합니다. 여기에 제시된 프레임워크는 이를 위한 기초로 사용될 수 있습니다.
  • 위험 및 향후 시나리오에 대한 Horizon 스캐닝을 알리기 위해. UN AI 자문기구의 임시 보고서6의 위험 분류는 여기 프레임워크에 제시된 프레임과 광범위하게 일치합니다. 프레임워크를 사용하여 합의를 구축하고 새로운 위험의 심각도를 테스트하고 이를 선점할 수 있는 기회가 있습니다.
  • AI 사용을 안내하고 관리하는 데 필요한 윤리 원칙을 강화합니다. 프레임워크는 신뢰할 수 있는 시스템을 개발할 수 있는 유연한 기반을 제공하고 기술의 합법적이고 윤리적이며 강력하고 책임감 있는 사용을 보장함으로써 이를 수행할 수 있습니다. 이러한 원칙은 이 프레임워크에 제시된 전체 범위의 영향에 대해 테스트될 수 있습니다.
  • 기존 및 발전하는 조치(규제, 입법, 정책, 표준, 거버넌스 등)에 대한 조사를 촉진하고 추가 고려가 필요한 격차를 식별합니다. 이는 국가 또는 다국적 수준의 프레임워크 범주에 대해 매핑되어 격차를 확인하고 위험을 완화하기 위한 적절한 조치를 식별할 수 있습니다.
  • 정부의 AI 활용을 지원합니다. 많은 정부가 기관 및 시스템 내에서 AI 사용을 위한 각자의 전략을 결정함에 따라 프레임워크를 사용하여 적절한 위험 임계값을 정의하고 주요 이해관계자와 책임을 식별할 수 있습니다.
  • AI가 사용되는 방식과 정부 서비스 전반에 걸쳐 또는 사회에서 더 광범위하게 사용될 기반 데이터에 대한 공개 담론을 지원하고 사회적 라이선스를 확립합니다.

앞으로 나아갈 길
요약하자면, 분석 프레임워크는 이해관계자가 일관되고 체계적인 방식으로 플랫폼 또는 사용의 중요한 개발을 포괄적으로 살펴보는 데 사용할 수 있는 툴킷의 기초로 제공됩니다. 이 프레임워크에 제시된 차원은 기술 평가에서 공공 정책, 인간 개발에서 사회학, 미래 및 기술 연구에 이르기까지 관련성이 있습니다. AI용으로 개발된 이 분석 프레임워크는 다른 모든 신흥 기술에 훨씬 더 광범위하게 적용됩니다.

6 UN AI 자문위원회. 2023. 중간 보고서: 인류를 위한 AI 관리. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

감사의 글

초기 토론 문서 개발과 출시 후 피드백 모두에 대해 많은 사람들이 협의하고 피드백을 제공했습니다. 두 논문 모두 ISC 회장인 Peter Gluckman 경과 뉴질랜드 국방부의 최고 과학 고문이자 현재 뉴질랜드 오클랜드 대학교의 수석 연구원인 Hema Sridhar가 초안을 작성했습니다.

특히, 전 왕립학회 회장이자 케임브리지 대학교 실존 위험 연구 센터의 공동 창립자인 ISC Lord Martin Rees; 옥스퍼드 대학교 물리학 교수 Shivaji Sondhi 교수; 인도 정부의 전 수석 과학 고문인 K Vijay Raghavan 교수; UN 사무총장의 기술 특사인 Amandeep Singh Gill; Seán Ó hÉigeartaigh, 캠브리지 대학교 실존 위험 연구 센터 전무이사; David Spiegelhalter 경, Winton 대학교 위험 대중 이해 교수
캠브리지; Amanda-June Brawner(수석 정책 고문) 및 Ian Wiggins(영국 왕립학회 국제 문제 담당 이사); Jerome Duberry 박사(전무이사) 및 Marie-Laure Salles 박사(제네바 대학원 연구소 소장); Chor Pharn Lee, 싱가포르 총리실 전략미래센터; Barend Mons와 Dr Simon Hodson, 데이터 위원회(CoDATA); Yuko Harayama 교수, 전 RIKEN 전무이사; 교수
Rémi Quirion, INGSA 회장; Claire Craig 박사(옥스퍼드 대학교), 전 정부 과학부 예측 책임자; UN 사무총장 과학 자문위원회 및 Université de Montréal의 Yoshua Bengio 교수; 그리고 초기 토론 문서에 대해 ISC에 피드백을 제공한 많은 사람들.


추가 읽기

AI를 위한 국가 연구 생태계 준비: 2024년 전략 및 진행 상황

ISC의 싱크탱크인 과학미래센터의 이 연구 보고서는 AI를 연구 생태계에 통합하는 다양한 단계에서 전 세계 국가의 자원에 대한 기본 정보와 액세스를 제공합니다.

컨텐츠로 가기