미국이 이란전을 일으키기 전에 베네수엘라의 대통령을 납치할 때 클로드를 썼으며 클로드의 사용에 제한 조건을 걸었던 것을 이후 다 풀어 달라고 전쟁부 당국이 클로드의 엔트로픽에 요구한 것을 들어 주지 않자 전쟁부 뿐 아니라 미국 정부 전체에서 엔트로픽의 인공지능 사용 계획을 철회한다고 했던 것이 인공지능에 관심을 가지고 있던 사람들이 사실로 알고 있던 내용입니다.
엔트로픽이 걸었던 두 가지는 미국 사람을 적으로 보고 써서는 안된다는 것과 최종 결정(공격 버튼을 누르는)을 인공지능에 맡겨서는 안된다는 것이었습니다.
인공지능 전문가라는 사람들 중 냉정한 시각으로 보거나 엄격하게 제한해야 한다는 시각으로 보는 전문가라고 하는 사람들의 공통된 입장은 인공지능이 사람에게 지시하는 상황이 왔다고 보는 것이었습니다. 물론 인공지능 찬양자들은 그런 건 눈곱 만큼도 고민하지 않았구요. 인공지능이 직접 공격 단추를 누르지 못하게 한다면 결국 인공지능이 판단한 결과를 내어 놓으면 그 중 인간이 판단해서 하나를 선택한다는 건데 당연히 1안을 선택하지 다른 안을 고르려면 뭐하러 비싼 돈 주고 사용하며 비싼 전기료 물고 돌리냐는 것이지요. 결국 1안을 자동으로 선택하는 것이고 그건 인공지능이 인간에게 그걸 누르라고 지시한 것을 인간이 누르는 주종관계가 만들어지는 것이라고 전문가들이 걱정한 것이었습니다.
내내 나도 그 틀에서 생각하고 끄덕거렸는데 오늘 산을 돌다 갑자기 이 문제의 핵심이 그게 아니라는 생각이 충격처럼 들었습니다. 진짜 문제는 책임 소재인 것입니다.
공격버튼을 인공지능이 누르면 그 공격에서 나타날 수 있는 부정적인 결과를 인공지능 만든 회사가 지는 것이고,사람이 버튼을 누르면 누른 사람과 누르도록 지시한 지휘자나 조직이 지는 것이 문제의 핵심인 것입니다. 그런데도 내가 접하는 그 어떤 정보 제공에서도 그런 말을 하는 사람이 없었다는 건, 우리가 접하는 정보는 모두 참과 거짓 뿐 아니라 그 내면의 숨은 뜻도 결국 스스로 판단해야 한다는 것을 명심해야 한다는 것입니다.




