인간은 AI와 공존할 준비가 되었는가? AI윤리, 근본적 가치에 대하여: AI가 인간에게 묻다 (1/2)
이 책은 내가 존경하는, 저명한 한국 AI 전문가 여러 분이 모여 낸 책으로, 소식을 들은 이후 안 읽어볼 수가 없었다. 특히 학교에서 서울대 AI 연구원에 방문해 장병탁 교수님을 뵙고, 그동안 구매 후 책장에서 순서를 기다리던 책을 앞 순서로 당겨 곧바로 읽어보게 되었다.
질문하는 능력이 필요하다
“휩쓸리지 않기 위해서는 시대의 흐름을 읽어야 한다. 변화를 관통하는 맥을 읽어내야 한다. 무엇이 그 변화를 일으키는지 동인을 찾아야 한다.” (4)
휩쓸리지 않기 위해서. 21세기 4차 산업혁명시대의 변환점에 태어났기에 더 중요한 이유라고 생각한다. 그렇기에 어려서부터 세계의 흐름, 연구 동향을 읽으려 노력했고 그 결과 BCI 분야에 관심이 생기고 가치가 보여 이 분야를 공부 중이다.
“시간을 파는 상점”에 등장하는 한 노인은 휩쓸리고 싶지 않아 핸드폰조차 사용하지 않는 방법을 택했다. 하지만 나는 그와 입장이 다르므로 끊임없이 공부하고, 앞으로 나아가야 한다.
미래의 ‘오늘’은 계속 바뀌기에 질문과 답 또한 계속 바뀌어야 한다. 답을 틀린다고 할지라도 끊임없이 묻고 답해야 한다.
01. 인간은 어떻게 AI와 공존할 수 있을까?
정보 능력 격차, 디지털 격차 문제, 인간의 역할을 대체해버리는 문제, 삶에 개입하는 문제
=> AI 윤리에 대해 이야기 해봐야 한다
“AI윤리에서도 어떤 절대적인 규정과 법규로 모든 것을 정하려 하기보다는 모두가 행동 강령으로 채택할 수 있는 근본적인 가치 기준 ...(중략)... 에 대한 논의가 더 필요하지 않을까 (후략)” (13)
즉, 법과 규정보다는 가치관을 분명하게 확립하는 것이 중요하다는 말
01-1. 인간의 뇌는 AI와 협업할 준비가 되어 있는가?
=> 개인의 뇌 X 인간의 뇌 O
사람은 주어진 과제 자체를 문제시할 수 있지만, 인공지능은 그럴 수 없다. 이게 인공지능이 지능을 가지고 있지 않다는 주장을 뒷받침할 수 있다.
사회적 지능 가설. “한 개인의 뇌는 업그레이드 되지 않았지만, 인류의 뇌와 뇌의 연결, 그것을 통한 지식의 공유와 협업 범위의 확장이 인류명의 발전을 이끈 원동력이라고 할 수 있다.” (19)
“인간의 뇌과 과연 AI와 협력할 준비가 되어 있는가?” (20)
인간과 AI의 협업이 아닌, 인간을 위한 인간 중심의 AI가 필요하다.
그렇다면 인간 중심 AI란 무엇일까? 어떤 점이 다를까? AI를 바라보는 관점이 변화해야 한다. AI와 같이 일하는 것이 아닌, AI가 나를 보조해주는 도구라고 생각하는 관점. 다만 이럴 경우, AI의 효과를 극대화 할 수 있을까? 도구로서 효과를 최대한 발휘하도록 하는 연구가 필요할 것 같다. (이게 맞게 이해 한 것인지도 잘 모르겠다.)
01-2. AI가 인간을 평가하고 선발하고 지도할 준비가 되어 있는가?
=> 그렇지 않다. 인간의 한계를 넘어서기 어렵다.
선생님의 경우, 선생님은 학생에게 단지 지식을 가르치는 것만 하는 게 아니라 지식과 정보를 다루는 방법, 사회성을 가르친다. 이는 AI가 할 수 없다,
“AI를 훈련시키기 위해 인간의 데이터를 쓸 수 밖에 없기 때문에 인간의 뇌가 무의식적으로 갖고 있는 차별이나 편향을 이 시스템들도 그대로 따라하게 된다는 점이었다.” (24)
AI의 학습 데이터도 결국 인간의 산물을 이용하는 것이기에 인간의 특성, 그중 우리가 AI가 보완해주길 원하는 특성도 보완될 수 없이 그대로 이용되고, AI에게 적용된다. 학습 데이터에서부터 문제를 해결하지 않으면, AI를 도입한다고 해도 문제가 해결되지 않는다. 그렇다면 학습 데이터를 어떻게 하면 편향 없는 데이터로만 선별할 수 있을까? 어떻게 인간의 차별과 편향을 담지 않은 AI를 만들 수 있을까? 평가와 선발은 AI보다 알고리즘에 의한 것이 좋지 않을까? 알고리즘에는 어떤 문제가 있을까?
01-3. AI가 인간의 정보를 어디까지 활용해도 될까?
인간의 정보를 활용해서 내리는 AI의 판단은 공정할까?
=> 공정하다면, 그 판단이 부정적인 경우 그 대상을 처벌할 수 있을까?
=> 판단에 따라 ‘위험한 사람’에게 선제적 조치를 한다면, 그 사람의 개인정보보호는?
그 판단을 100% 신뢰하고 한 개인에게 손해(벌금, 징역 등)를 끼쳐도 될까?
인간의 정보를 활용하여 특정 판단을 내리게 된다면, 그 판단에 따른 차별과 불이익도 뒤따를 것
부정적인 판단이 나왔을 때 선제적 조치를 취할지, 정보 보호의 의무를 다할 것인지 이 두 의견이 대립
뇌 해킹 즉, 인간의 행동 데이터 및 뇌파 데이터를 읽어 내 활용하는 것이 인간의 행복도를 크게 낮출 수가 있다.
”우리가 어떻게 나의 아이덴티티를 보호하고 개인 데이터를 지킬 수 있을지가 AI의 이용에서 큰 이슈가 될 것이다.” (36)
구글에서 나도 모르는 사이에 내 정보를 수집하는 것을 막고자 뒤늦게 수집 차단으로 설정을 바꾸는 사람들을 많이 봤다. 왜 “나도 모르는 사이에”인 걸까? 계약서, 개인 정보 활용 동의서를 읽어보지 않아서? 그렇다면 이는 어떻게 해결할 수 있을까? 뒤늦게 자신의 개인 데이터가 활용되고 있단 사실을 깨달은 소비자들이 차단 설정을 하면, AI를 개발하는 의미가 있을까? 소비자가 원치 않는 AI는 필요가 없다.
데이터의 소유 유무에 따라 엄청난 디지털 격차가 발생하게 되고, 이는 곧 빈부격차로 연결될 수 있을 것.
정보 격차, 디지털 격차에 대한 건 나의 큰 관심사이다. AI를 학습시킬 때는 많은 양의 데이터가 필요하고, 학습시키는 순간에 컴퓨터가 돌아가며 많은 양의 열과 온실가스를 방출한다. 이에 대한 피해는 누가 가장 크게 받는가? 이는 현재의 빈민국일 것이다. 선진국에서 AI를 마구 사용하면, 그 피해와 여파와 책임은 모두 빈민국에서 지게 된다. AI를 연구하는 직업을 희망하는 사람으로서, AI윤리 뿐 아니라 AI로 인한 환경 문제에도 관심을 가져야 한다. 물론 이 책에서는 특정지어 환경 문제를 말한 것이 아니지만, 읽다보니 문득 이 생각이 났다.
01-4. AI에게는 어떤 책임과 의무를 주고, 어떤 권리를 줘야 할까?
“AI는 어떠한 사회적 책임과 의무를 가지게 될 것인가? 그리고 우리는 AI에게 어떤 권리를 주어야 하는가?” (37)
자율 주행 트롤리 딜레마 문제. 모든 것 “이전에 AI에게 과연 레버를 누를 권한을 줄 수 있을까?”(38)
인간의 생명에 대해 AI가 판단하게 권한을 준다면, 그 판단의 기준을 정해야 한다. 그렇다면 이 기준은 어떻게 정하는가? AI가 누가 죽고 누가 살지를 정하도록 하는 것이 옳은가?
AI에게 얼마나 권한을 주고, 그것을 얼마나 통제할 수 있는지는 아이작 아시모프의 로봇 제3원칙이 참고가 될 수 있다.
인간에게 도움이 되는, 인간을 지키는 선에서 권한을 갖고 있다. 또한 인간에게 해가 되지 않는다면 자신을 지킬 권한도. 그렇다면 AI는 트롤리 딜레마에서 판단을 내릴 수 없다. 인간에게 해가 가기 때문이다. 그렇다면 이 문제는 어떻게 해결할 수 있을까?
AI는 주체인가, 객체인가. 얼마 전 챗봇 이루다의 성희롱 문제도 AI를 물건으로 정의하면 별 문제가 없을 일.
“현실 속에서 우리가 AI를 대할 때 어떻게 해야 할지 기준을 제시하는 AI윤리의 문제이다.” (41)
인간 중심적이고 책임가능한, 우리 사회에서 필요한 AI는 설명 가능한 AI이다. 즉, 어떤 기준으로, 어떤 과정을 거쳐 어떤 판단을 내렸는지 사람들에게 공개 가능한 투명한 AI가 필요하다.
어떤 과정을 거쳐 어떤 판단을 내렸는지 사람들에게 공개 가능한 투명한 AI가 필요하다는 주장에 동의한다. AI가 옳게 판단을 내렸다면 그 이유를, 그렇지 않다고 해도 그 이유를 알아야 의미가 있는 것이라 생각한다. 현재 그 이유를 알 수 있는 AI하면 결정 트리가 떠오르는데, 이는 분류 알고리즘이기에 한계가 있다. 설명 가능한 AI에 대한 연구를 더 찾아보고 조사해 보는 게 필요할 것 같다.
이 모든 문제에 대한 답을 찾을 때는 “우리가 가지고 있는 근본적인 가치를 잊지 않는 것이 중요하다.” (43)
책의 첫부분에서 말했듯이 규칙 또는 법보다도 명확한 가치과 행동 강령이 더 중요한 것 같다. 그렇다면 옳은 가치와 근본적인 가치는 무엇일까? 모든 사람이 동의할 수 있는 근본적인 가치에는 한계가 있지 않을까? 어떻게 통합할 수 있을까?
문답
공존
디지털 정보 격차
AI윤리
설명 가능한 AI