들어가며...

인공지능(AI) 기술이 우리 사회 곳곳에 스며들면서 관련 법과 제도의 필요성이 부쩍 제기되고 있다. 최근 크게 논란이 되었던 AI 챗봇 이루다 사건은 전 국민이 AI 윤리를 고민하는 계기가 됐다.

법무법인 태평양과 공동 기획한 연재 칼럼에서는 변호사 관점에서 최신 AI 법·제도·윤리 이슈를 분석한다. 법무법인 중 국내 최초로 AI팀을 꾸린 태평양 내 AI 전담 변호사들이 AI가 사회 속에 자연스레 녹아들어갈 방법과 실제적인 해결책을 모색한다.

① 유럽연합 AI 규제안의 내용과 의미

②대규모 언어모델의 등장과 위험 기반의 AI 거버넌스

③정부의 AI 활용, 어디까지 왔는가

법무법인 태평양 마경태 변호사
법무법인 태평양 마경태 변호사

공공영역에서의 AI 활용 사례

사례 #1
A지방자치단체는 감염병 확진자의 이동동선을 파악하기 위해 ‘인공지능과 CCTV 영상을 이용한 지능형 역학시스템’을 구축 중이다. 위 시스템은 지방자치단체 영상관제센터에 보관되어 있는 CCTV 영상정보에 대해 안면인식 기술을 적용, 여러 확진자들의 얼굴을 동시에 탐색할 수 있다. 이를 통해 역학조사 영상분석시간을 줄일 수 있고 방역당국의 감염병 대응력을 강화할 수 있다.

사례 #2
B위원회는 각종 법령에 개인정보 침해요인이 있는지 평가하기 위해 'AI 개인정보 침해 예방 지원 시스템'을 구축해 운영할 계획이다. 이 시스템은 AI 기반 자연어처리 기술을 활용해 개인정보 관련 문서들을 자동적으로 분류하고 키워드를 추출한다. 또 법령에 개인정보 침해요인이 있는지 평가하고 기존 유사 사례를 추천한다.

사례 #3
C교육청은 올해부터 교육전문직원임용을 위한 공개전형에서 AI 직무적합성평가를 도입한다. AI 직무적합성평가는 AI와 빅데이터 역량평가 시스템을 활용해 응시자에 대한 직무 적합성을 다차원적으로 평가한다. AI 직무적합성평가 결과는 전체 평가 점수에 10% 반영된다.

위 사례들은 실제 정부기관에서 검토 혹은 추진 중인 AI 기술 도입 계획이다. 앞선 두 사례는 최근 빠르게 발전하고 있는 안면인식 기술과 자연어처리 기술이 공공영역에 도입되기 시작했다는 점에서 의미가 있다. 마지막 사례는 정부기관의 의사결정 과정에도 AI 기술이 활용되기 시작했다는 점에서 눈여겨볼 필요가 있다.
 

(출처=셔터스톡)

안면인식 기술의 활용

공공영역에서의 안면인식 기술 활용은 AI 기술의 윤리적 활용과 관련해 전세계적으로 가장 논란이 되고 있는 이슈 중 하나다. 안면인식 기술에 대한 논란은 크게 시스템의 정확성 문제와 사생활 침해 문제로 나눠 볼 수 있다.

지난 수년간 안면인식 기술은 빠른 속도로 발전했지만 여전히 완벽한 기술은 아니다. 시스템의 오류로 안면인식이 부정확하게 이뤄질 경우 잘못 인식된 개개인이 피해를 입는다. 시스템이 특정 성별이나 연령대와 같이 집단에 대해 낮은 정확성을 보일 경우에는 편향성 논란이 발생할 수 있다.

공공장소에서 자신도 모르게 안면인식 시스템에 의해 감시를 받는다면 사생활 침해가 문제될 수 있다. 설령 감염병 역학조사 목적과 같이 ‘공공의 안전’을 위해 ‘별도 동의’를 받은 자에 한해 안면인식 기술을 적용하더라도, 여전히 사생활 침해 가능성은 존재한다. 일단 구축된 안면인식 시스템은 여러 목적으로 사용 가능한데, AI 시스템의 불투명한 속성으로 인해 시스템을 관리∙운영하는 자에 대한 통제가 어려울 수 있기 때문이다.

미국에서는 이러한 논란을 반영해 샌프란시스코, 보스턴 시 등 일부 지방정부에서 정부기관에 의한 안면인식 기술 사용을 금지하는 법안을 통과시켰다. 반면 중국과 싱가폴에서는 정부 주도로 안면인식 기술을 적극 도입하고 있다. 우리나라에서도 향후 안면인식 기술의 적용이 확산되면서 위 기술의 규제 여부에 대한 사회적 논의가 활발하게 이뤄질 것으로 예상된다.
 

자연어처리 기술의 활용

자연어처리 기술은 다양한 방법으로 행정의 효율성을 향상시킬 수 있다. AI 언어모델을 사용하면 기존 사건 문서들을 유사한 종류의 문서들끼리 자동으로 묶어서 체계적으로 관리할 수 있다. 더 나아가 주어진 질문에 대해 문서 안에서 적합한 답을 찾아낼 수도 있다.

가령 약관 규제 내용을 토대로 작성한 체크리스트(질의)와 샘플 약관 내에 관련 내용(응답)을 질의응답 데이터세트로 만들어 AI 언어모델을 학습시키면, 약관에서 규제 체크리스트 항목별로 관련 내용을 추출해낼 수 있다. 이를 토대로 내용의 적정성 여부도 판단 가능하다. 실제로 금융감독원은 AI 언어모델을 이용해 사모펀드보고서를 읽고 주요 항목별로 적정성을 판단함으로써 심사업무를 지원하는 시스템을 구축·운영 중이다.

이처럼 자연어처리 기술을 활용하면 기존에 상당한 시간이 소요됐던 데이터 수집·분석 작업을 AI 시스템에게 맡기고, 공무원은 최종심사에 집중할 수 있다. 결과적으로 시장에 대한 감시 능력을 상당히 확장할 수 있을 것으로 보인다. 다양한 규제 영역에서 고품질의 질의응답 데이터세트 구축이 가능해진다면, 규제기관은 인터넷상에 공개되어 있는 사업자들의 각종 이용약관과 개인정보 처리방침을 빠르게 검토할 수 있게 될 것이다. 이로 인해 앞으로는 규제환경이 상당히 엄격해질 가능성도 있다.
 

의사결정에서의 활용

AI 시스템을 이용한 의사결정은 크게 ①인적 개입 없이 AI 시스템이 최종 의사결정을 내리는 ‘완전히 자동화된 의사결정’과 ②사람이 AI 시스템의 결과를 참고해 자신이 직접 의사결정을 내리는 ‘일부 자동화된 의사결정’으로 구분된다. 가령 복지대상 선정을 위해 AI 시스템을 활용하는 경우, AI 시스템이 복지대상 후보자 100명을 선별하고 나서 공무원이 직접 100명의 후보자들의 면면을 검토해 최종적으로 10명을 복지대상으로 선정했다면 ‘일부 자동화된 의사결정’이라 할 수 있다. 하지만 만약 AI 시스템이 선별한 후보자 100명 중 점수 순으로 1위부터 10위까지를 그대로 최종 복지대상으로 선정한다면 ‘완전히 자동화된 의사결정’이다.

올해 3월부터 시행되는 행정기본법은 행정청이 법률로 정하는 바에 따라 ‘완전히 자동화된 시스템'(AI 시스템 포함)으로 처분을 내릴 수 있다고 규정하면서, 처분에 ‘재량’을 행사해야 하는 경우는 제외시키고 있다.

즉 재량처분에 대해서는 AI 시스템에 의한 ‘완전히 자동화된 의사결정’은 허용되지 않고, 사람인 공무원이 직접 재량권을 행사해 처분을 내려야 한다는 것이다. AI 시스템은 불투명한 속성으로 인해 의사결정의 상대방이 AI 시스템이 결정을 내린 이유를 쉽게 알 수 없기 때문에 권리구제가 제약될 수 있다. 따라서 행정청의 재량적 판단이 필요한 처분의 경우 국민의 권리구제 측면에서 AI 시스템이 아닌 공무원이 직접 의사결정을 내릴 필요성이 크다.

하지만 앞서 본 복지대상 선정 사례에서 공무원이 매번 AI 시스템이 매긴 점수 순으로 1위부터 10위까지의 후보자를 최종 대상자로 선정한다면 어떨까. 이를 과연 ‘완전히 자동화된 의사결정’이 아니라고 할 수 있을 것인가. 이처럼 사람이 AI 시스템의 결과물을 선호하는 현상을 ‘자동화 편향(Automation Bias)'이라 한다. AI 시스템이 생성한 결과에 대해서 공무원이 형식적으로 승인을 내리는 경우에 대해서는 ‘완전히 자동화된 의사결정’과 동일하게 제한해야 할 것이다.
 

공공영역에서의 AI 기술 활용 기준 정립의 필요성

최근 여러 정부기관에서 민간 영역에서 활용되고 있는 AI 시스템에 대한 검증체계를 구축하기 위해 민간 사업자들을 위한 각종 AI 가이드라인을 발표하고 있다. 그런데 외국 학계의 경우 AI 시스템에 대한 검증체계 도입 논의가 주로 공공영역에서의 AI 시스템 관리∙감독 방안에서부터 출발했다는 점을 유념할 필요가 있다(Andrew D. Selbst (2018) “Disparate Impact in Big Data Policing”; Dillon Reisman et al (2018) “Algorithm Impact Assessment: A Practical Frameworks for Public Agency Accountability”). 공공영역에서의 AI 기술 활용은 일반 대중을 대상으로 광범위하게 이뤄지고 국민의 법익을 쉽게 침해할 소지가 있다는 점에서 각별한 주의가 요구된다.

우리나라도 이제 정부기관에 의한 AI 기술의 활용이 점차 확산되는 과정에 있기 때문에 정부 내부적으로 AI 기술 이용에 대한 기준을 정립해 정부기관들이 참고할 수 있는 가이드라인이나 검증절차를 만들어야 한다. 얼마전부터 시행되고 있는 지능정보화 기본법의 ‘지능정보서비스 사회적 영향평가’를 적극적으로 활용하는 것도 한 방법이 될 수 있다. AI 기술 활용을 통한 행정 효율성 제고와 국민의 자유와 권리 보호 사이에 적절한 조화를 이루기 위해 사회적 관심과 정부의 노력이 필요하다.

 

AI타임스 마경태 변호사 kyungtae.ma@bkl.co.kr

[관련기사]과기정통부 AI 가이드라인 만드는 변호사들...로펌 최초 AI팀 인터뷰

[관련기사]“AI 조세 시스템, 국가에서 국민 위주로 패러다임 전환해야”...조세전문가들 주장

키워드 관련기사
  • 국가지식재산위, 29일 인공지능-지식재산 특위 2기 출범
  • 과기정통부, 2022년 R&D 예산 23조5천억원...전년대비 4.6% 증가
  • 과기정통부, AI 학습용 데이터 본격개방한다...170종 6월 내 공개