Abstract
이 글은 효율성과 공정성을 높이기 위해 도입된 알고리즘이 오히려 차별과 불평등을 낳은 사례들에 대한 전 세계적 보고들로 인해, 그리고 특히 최근 한국에서 화제가 된 챗봇 ‘이루다’의 차별 및 혐오 발언으로, 많은 주목을 받고 있는 AI의 편향(bias) 문제에 대한 하나의 접근 방법을 제시하고자 한다. 단순한 기계의 고장과 달리 블랙박스라 불리는 AI의 편향을 낳는 원인들은 복잡하게 얽혀있어서 쉽게 밝히기 어려울 뿐 아니라 편향을 줄이기 위한 기술적 접근이 오히려 다른 종류의 편향을 낳을 수 있다. 그리고 편향에 개입할 수 있는 인간들의 윤리의식을 높이기 위한 가이드라인이 제시되었으며, 알고리즘 영향평가, 감사 등의 제도들도 제시되고 있다. 하지만 AI 윤리가 오히려 윤리 세탁에 이용되고 있다는 비판이 제기된 바 있으며, 섣부른 법적 · 제도적 개입은 면죄부를 제공할 수도 있다.BR이 글은 AI의 편향에 대해 ‘역설에 대처할 수 있는 반성적 접근’이라는 다소 복잡하고 어려운 방법을 제시하고자 한다. 이 접근법은 인간의 편향에 맞서 감정을 배제하는 건조한 지성을 추구했던 노력이 ‘계몽의 자기파괴’라 불리는 역설에 이르게 된 과정, 그리고 이러한 계몽의 역설에 대처하기 위해 20세기 중후반의 철학이 계몽의 유산인 반성(Reflexion)을 사회적 차원으로 이동시켜 절차화했다는 점에 주목한다. 그리고 현대 사회의 기능체계들이 역설에 대처할 수 있는 코드, 프로그램, 반성이론 등을 마련했음에 주목한다. 이를 참조해, 필자는 다양한 인간들과 여러 제조사들의 AI가 서로 견제할 수 있는 반성적 과정과 절차를 마련할 것을 제안한다.