반응형
AI 위험을 완화하는 방법
전염병이 채택을 가속화하고, 더 비판적으로, 인공 지능 (AI) 기능을 채택하고자하는 조직의 욕망을 가속화한 것은 비밀이 아니다. 그러나 AI를 작동시키기는 특히 어렵습니다. PwC의 최근 글로벌 책임 AI 설문조사에 따르면 미국, 미국, 미국, 일본, 인도의 주요 조직에서 1,000명 이상의 참가자를 대상으로 한 AI를 운영할 수 있는 단체는 6%에 불과합니다. 설문 조사에 참여한 기업의 절반 이상이 여전히 AI 역량에 대한 주요 투자를 실험하고 있으며 여전히 전념하지 않는다고 답했습니다.
그러나 포함된 AI 전략을 가진 기업은 그렇지 않은 것보다 비즈니스 전반에 걸쳐 더 광범위한 채택을 통해 대규모로 응용 프로그램을 보다 안정적으로 배포할 수 있습니다. 특히 대기업(10억 달러 이상)은 AI(39%)의 신규 사용 사례를 모색하고 AI(38%)의 사용을 늘리고 직원들이 AI(35%)를 사용하도록 교육할 가능성이 훨씬 높습니다.
책임있는 AI
운영화에 대한 몇 가지 과제는 기술적 또는 기술 집합에 의해 제한되지만 신뢰 격차는 여전히 억제제입니다.
주요 추세는 이러한 신뢰 격차를 해소하기 위해 "책임있는 AI" 관행을 통합하는 것입니다. 책임있는 AI는 AI 시스템을 제어하고 우리가 운영하고자하는 환경에 따라 적절하게 제어하는 데 필요한 도구, 프로세스 및 사람들을 구성하며 편견, 설명성, 견고성, 안전 및 보안 문제를 해결하기 위해 기술 및 절차 적 기능을 사용하여 구현됩니다(무엇보다도). 신뢰할 수 있는 AI, AI 윤리 또는 유익한 AI로 언급되거나 결합되는 책임있는 AI의 의도는 AI 및 분석 시스템을 체계적으로 개발하여 조직의 신념과 가치를 반영하고 의도하지 않은 피해를 최소화하는 고품질 및 문서화된 시스템을 가능하게 하는 것입니다.
기업의 책임있는 AI
AI가 조직에 제기 할 수있는 새로운 우려의 인식은 위험 완화 활성제의 상당한 증가를 주도하고있다. 조직은 개별 응용 프로그램의 위험을 완화하기 위한 전략뿐만 아니라 비즈니스 또는 사회에 대한 광범위한 위험을 완화하기 위한 전략을 추구하고 있으며, 고객과 규제 기관 모두 점점 더 까다롭습니다(그림 1). 이러한 위험은 AI 의사 결정의 성능 불안정및 편향을 포함하여 응용 프로그램 수준에서 발생합니다. 기업 또는 금융 위험과 같은 비즈니스 수준; 그리고 자동화에서 의한 일자리 변위, 잘못된 정보와 같은 국가 차원의 수준. 이러한 위험 등을 해결하기 위해 조직은 임시 조치부터 보다 체계적인 거버넌스 프로세스로 발전하는 다양한 위험 완화 조치를 사용하고 있습니다. 기업의 3분의 1 이상(37%)은 AI 리스크를 해결하기 위한 전략과 정책을 가지고 있으며, 이는 2019년(18%)보다 크게 증가한 수치입니다.
위험 완화에 대한 강조가 증가함에도 불구하고 조직은 여전히 AI를 제어하는 방법에 대해 논의하고 있습니다. 설문 조사에 참여한 기업의 19%만이 모든 이해 관계자에게 보고되는 공식 문서화 프로세스를 가지고 있습니다. 29%는 특정 이벤트를 처리하기 위한 공식적인 프로세스를 가지고 있습니다. 그리고 균형은 비공식적 인 프로세스또는 명확하게 정의 된 프로세스가 전혀 없습니다.
이러한 불일치의 일부는 AI 거버넌스 소유권에 대한 명확성이 부족하기 때문입니다. 누가 이 프로세스를 소유하고 있습니까? 개발자의 책임, 규정 준수 또는 위험 관리 기능 및 내부 감사의 책임은 무엇입니까?
이미 알고리즘에 대한 규제 감독을 받는 은행 및 기타 조직은 모델을 독립적으로 검증할 수 있는 강력한 기능("두 번째 줄" 팀)을 가지고 있는 경향이 있습니다. 그러나 다른 사람들은 두 번째 줄이 AI 시스템을 검토할 적절한 기술이 없기 때문에 별도의 개발 팀에 의존해야 합니다. 이러한 조직 중 일부는 더 많은 기술 적 전문 지식을 갖춘 두 번째 라인 팀을 강화하기로 선택하고 있으며, 다른 조직은 첫 번째 라인 내에서 품질 보증을위한 보다 강력한 지침을 만들고 있습니다.
책임에 관계없이 조직은 고품질의 AI 개발 및 모니터링을 위해 특정 지점에서 스테이지 게이트가 있는 표준 개발 방법론이 필요합니다(그림 2). 이 방법론은 많은 AI 시스템이 공급업체 또는 소프트웨어 플랫폼을 통해 조직에 진입한다는 점을 감안할 때 조달 팀으로도 확장됩니다.
I 위험에 대한 인식은 기술 윤리를 고려하는 또 다른 추세를 보완합니다 - "무엇을 해야 하는가"가 아닌 "해야 할 일"이 아닌 "해야 할 일"에 의해 구동되는 AI의 개발, 조달, 사용 및 모니터링을 위한 관행을 채택하는 것입니다.
AI, 데이터 및 기술에 대한 윤리적 원칙이 있지만 공정성은핵심 원칙으로 남아 있습니다. 설문조사 응답자의 36%는 알고리즘 편향을 주요 위험 초점 영역으로 인식하고 있으며, 56%는 편향 위험을 적절히 해결할 수 있다고 생각합니다. 기업이 AI 채택을 성숙함에 따라 AI 개발의 전문 지식과 AI 위험에 대한 문제에 대한 인식을 고려할 때 알고리즘 편향을 주요 초점으로 받아들이는 경향이 있습니다. AI 성숙한 기업에게 5번째로 중요한 원칙인 공정성비율은 성숙도가 떨어지는 조직에서 8위를 차지합니다. 기타 원칙에는 안전, 보안, 개인 정보 보호, 책임, 설명 가능성 및 인적 기관이 있습니다. AI 및 데이터 윤리를 구현하는 조직 접근 방식은 격리된 것으로 간주되는 좁은 이니셔티브에 초점을 맞추고 영향 평가 및 행동 강령과 같은 일회성 도구를 활용하는 경향이 있습니다. 성숙한 AI 사용을 가진 대기업은 영향 평가(62%), 윤리위원회(60%), 윤리교육(47%)을 포함한 다양한 이니셔티브에 투자할 가능성이 훨씬 큽니다. 이러한 푸시는 책임있는 AI를 운영하기 위해 여러 내부 이니셔티브가 필요하다는 인식을 나타냅니다.
조직에서 수행할 수 있는 일
다음을 안내할 원칙을 수립합니다. 리더십에 의해 채택되고 지지되는 일련의 윤리적 원칙은 조직에 노스 스타를 제공합니다. 그러나 원칙만으로는 책임있는 AI 관행을 포함시키기에 충분하지 않습니다. 이해 관계자는 회사 전체가 뒤처날 수 있는 정책과 관행을 설계하기 위해 일상적인 업무의 맥락에서 원칙을 고려해야 합니다.
거버넌스 소유권 고려: 다행히도 조직 내의 많은 리더들은 AI 및 데이터에 대한 거버넌스 관행을 수립하는 데 관심이 있습니다. 그러나 이 거버넌스에 소유자를 지정하지 않으면 조직은 서로 충돌할 수 있는 개별 관행과 다른 문제를 발견할 수 있습니다. 거버넌스 접근 방식을 설계해야 하는 팀을 식별하고 소유자와 기존 정책에 대한 업데이트를 식별하는 프로세스에 동의합니다.
데이터, 모델 및 소프트웨어 수명 주기에 대해 잘 정의되고 통합된 프로세스를 개발합니다. 개발 및 모니터링을 위해 표준화된 프로세스를 구현하며 특정 단계 게이트를 사용하여 승인 및 검토가 진행해야 하는 위치를 나타냅니다(그림 2). 이 프로세스는 소프트웨어 개발 수명 주기뿐만 아니라 기존 데이터 및 개인 정보 거버넌스 메커니즘에 연결해야 합니다.
사일로 분해: 필요한 이해 관계자 그룹에 정렬하여 아이디어를 공유하고 모범 사례를 공유하기 위해 팀을 연결합니다. 거버넌스 프로세스에 대한 AI 및 데이터에 대한 공통 재고를 만들고 이 연습을 사용하여 비즈니스가 더 잘 운영될 수 있는 구조적 변경 또는 재조정을 고려할 수 있는 기회로 사용합니다.
빠르게 변화하는 규제 환경을 감시하십시오. 책임감 있는 관행을 요구하는 것은 고객, 투자자 및 직원만이 아닙니다. 규제 당국은 주, 규제 기관, 국가 및 초국가적 수준에서 법안을 통지하고 제안하고 있습니다. 일부 규정은 확장된 데이터 보호 및 개인 정보 보호 노력, 일부 규제 기관(은행 등)과 책임을 개선하려는 보다 일반적인 욕구(예: 유럽 연합(EU)의 인공 지능법에서 비롯됩니다. 이러한 규정을 보조하는 것은 향후 규정 준수 활동을 식별하는 데 핵심적인 것입니다.
그러나 포함된 AI 전략을 가진 기업은 그렇지 않은 것보다 비즈니스 전반에 걸쳐 더 광범위한 채택을 통해 대규모로 응용 프로그램을 보다 안정적으로 배포할 수 있습니다. 특히 대기업(10억 달러 이상)은 AI(39%)의 신규 사용 사례를 모색하고 AI(38%)의 사용을 늘리고 직원들이 AI(35%)를 사용하도록 교육할 가능성이 훨씬 높습니다.
책임있는 AI
운영화에 대한 몇 가지 과제는 기술적 또는 기술 집합에 의해 제한되지만 신뢰 격차는 여전히 억제제입니다.
주요 추세는 이러한 신뢰 격차를 해소하기 위해 "책임있는 AI" 관행을 통합하는 것입니다. 책임있는 AI는 AI 시스템을 제어하고 우리가 운영하고자하는 환경에 따라 적절하게 제어하는 데 필요한 도구, 프로세스 및 사람들을 구성하며 편견, 설명성, 견고성, 안전 및 보안 문제를 해결하기 위해 기술 및 절차 적 기능을 사용하여 구현됩니다(무엇보다도). 신뢰할 수 있는 AI, AI 윤리 또는 유익한 AI로 언급되거나 결합되는 책임있는 AI의 의도는 AI 및 분석 시스템을 체계적으로 개발하여 조직의 신념과 가치를 반영하고 의도하지 않은 피해를 최소화하는 고품질 및 문서화된 시스템을 가능하게 하는 것입니다.
기업의 책임있는 AI
AI가 조직에 제기 할 수있는 새로운 우려의 인식은 위험 완화 활성제의 상당한 증가를 주도하고있다. 조직은 개별 응용 프로그램의 위험을 완화하기 위한 전략뿐만 아니라 비즈니스 또는 사회에 대한 광범위한 위험을 완화하기 위한 전략을 추구하고 있으며, 고객과 규제 기관 모두 점점 더 까다롭습니다(그림 1). 이러한 위험은 AI 의사 결정의 성능 불안정및 편향을 포함하여 응용 프로그램 수준에서 발생합니다. 기업 또는 금융 위험과 같은 비즈니스 수준; 그리고 자동화에서 의한 일자리 변위, 잘못된 정보와 같은 국가 차원의 수준. 이러한 위험 등을 해결하기 위해 조직은 임시 조치부터 보다 체계적인 거버넌스 프로세스로 발전하는 다양한 위험 완화 조치를 사용하고 있습니다. 기업의 3분의 1 이상(37%)은 AI 리스크를 해결하기 위한 전략과 정책을 가지고 있으며, 이는 2019년(18%)보다 크게 증가한 수치입니다.
위험 완화에 대한 강조가 증가함에도 불구하고 조직은 여전히 AI를 제어하는 방법에 대해 논의하고 있습니다. 설문 조사에 참여한 기업의 19%만이 모든 이해 관계자에게 보고되는 공식 문서화 프로세스를 가지고 있습니다. 29%는 특정 이벤트를 처리하기 위한 공식적인 프로세스를 가지고 있습니다. 그리고 균형은 비공식적 인 프로세스또는 명확하게 정의 된 프로세스가 전혀 없습니다.
이러한 불일치의 일부는 AI 거버넌스 소유권에 대한 명확성이 부족하기 때문입니다. 누가 이 프로세스를 소유하고 있습니까? 개발자의 책임, 규정 준수 또는 위험 관리 기능 및 내부 감사의 책임은 무엇입니까?
이미 알고리즘에 대한 규제 감독을 받는 은행 및 기타 조직은 모델을 독립적으로 검증할 수 있는 강력한 기능("두 번째 줄" 팀)을 가지고 있는 경향이 있습니다. 그러나 다른 사람들은 두 번째 줄이 AI 시스템을 검토할 적절한 기술이 없기 때문에 별도의 개발 팀에 의존해야 합니다. 이러한 조직 중 일부는 더 많은 기술 적 전문 지식을 갖춘 두 번째 라인 팀을 강화하기로 선택하고 있으며, 다른 조직은 첫 번째 라인 내에서 품질 보증을위한 보다 강력한 지침을 만들고 있습니다.
책임에 관계없이 조직은 고품질의 AI 개발 및 모니터링을 위해 특정 지점에서 스테이지 게이트가 있는 표준 개발 방법론이 필요합니다(그림 2). 이 방법론은 많은 AI 시스템이 공급업체 또는 소프트웨어 플랫폼을 통해 조직에 진입한다는 점을 감안할 때 조달 팀으로도 확장됩니다.
I 위험에 대한 인식은 기술 윤리를 고려하는 또 다른 추세를 보완합니다 - "무엇을 해야 하는가"가 아닌 "해야 할 일"이 아닌 "해야 할 일"에 의해 구동되는 AI의 개발, 조달, 사용 및 모니터링을 위한 관행을 채택하는 것입니다.
AI, 데이터 및 기술에 대한 윤리적 원칙이 있지만 공정성은핵심 원칙으로 남아 있습니다. 설문조사 응답자의 36%는 알고리즘 편향을 주요 위험 초점 영역으로 인식하고 있으며, 56%는 편향 위험을 적절히 해결할 수 있다고 생각합니다. 기업이 AI 채택을 성숙함에 따라 AI 개발의 전문 지식과 AI 위험에 대한 문제에 대한 인식을 고려할 때 알고리즘 편향을 주요 초점으로 받아들이는 경향이 있습니다. AI 성숙한 기업에게 5번째로 중요한 원칙인 공정성비율은 성숙도가 떨어지는 조직에서 8위를 차지합니다. 기타 원칙에는 안전, 보안, 개인 정보 보호, 책임, 설명 가능성 및 인적 기관이 있습니다. AI 및 데이터 윤리를 구현하는 조직 접근 방식은 격리된 것으로 간주되는 좁은 이니셔티브에 초점을 맞추고 영향 평가 및 행동 강령과 같은 일회성 도구를 활용하는 경향이 있습니다. 성숙한 AI 사용을 가진 대기업은 영향 평가(62%), 윤리위원회(60%), 윤리교육(47%)을 포함한 다양한 이니셔티브에 투자할 가능성이 훨씬 큽니다. 이러한 푸시는 책임있는 AI를 운영하기 위해 여러 내부 이니셔티브가 필요하다는 인식을 나타냅니다.
조직에서 수행할 수 있는 일
다음을 안내할 원칙을 수립합니다. 리더십에 의해 채택되고 지지되는 일련의 윤리적 원칙은 조직에 노스 스타를 제공합니다. 그러나 원칙만으로는 책임있는 AI 관행을 포함시키기에 충분하지 않습니다. 이해 관계자는 회사 전체가 뒤처날 수 있는 정책과 관행을 설계하기 위해 일상적인 업무의 맥락에서 원칙을 고려해야 합니다.
거버넌스 소유권 고려: 다행히도 조직 내의 많은 리더들은 AI 및 데이터에 대한 거버넌스 관행을 수립하는 데 관심이 있습니다. 그러나 이 거버넌스에 소유자를 지정하지 않으면 조직은 서로 충돌할 수 있는 개별 관행과 다른 문제를 발견할 수 있습니다. 거버넌스 접근 방식을 설계해야 하는 팀을 식별하고 소유자와 기존 정책에 대한 업데이트를 식별하는 프로세스에 동의합니다.
데이터, 모델 및 소프트웨어 수명 주기에 대해 잘 정의되고 통합된 프로세스를 개발합니다. 개발 및 모니터링을 위해 표준화된 프로세스를 구현하며 특정 단계 게이트를 사용하여 승인 및 검토가 진행해야 하는 위치를 나타냅니다(그림 2). 이 프로세스는 소프트웨어 개발 수명 주기뿐만 아니라 기존 데이터 및 개인 정보 거버넌스 메커니즘에 연결해야 합니다.
사일로 분해: 필요한 이해 관계자 그룹에 정렬하여 아이디어를 공유하고 모범 사례를 공유하기 위해 팀을 연결합니다. 거버넌스 프로세스에 대한 AI 및 데이터에 대한 공통 재고를 만들고 이 연습을 사용하여 비즈니스가 더 잘 운영될 수 있는 구조적 변경 또는 재조정을 고려할 수 있는 기회로 사용합니다.
빠르게 변화하는 규제 환경을 감시하십시오. 책임감 있는 관행을 요구하는 것은 고객, 투자자 및 직원만이 아닙니다. 규제 당국은 주, 규제 기관, 국가 및 초국가적 수준에서 법안을 통지하고 제안하고 있습니다. 일부 규정은 확장된 데이터 보호 및 개인 정보 보호 노력, 일부 규제 기관(은행 등)과 책임을 개선하려는 보다 일반적인 욕구(예: 유럽 연합(EU)의 인공 지능법에서 비롯됩니다. 이러한 규정을 보조하는 것은 향후 규정 준수 활동을 식별하는 데 핵심적인 것입니다.
반응형