요즘 AI 관련 뉴스를 보면 정말 흥미로운 이야기들이 많습니다. 그런데 최근 미국에서 AI 기술을 가진 회사와 국방부 사이에 벌어진 일은 좀 심각하게 다가오더라고요. 핵심은 이겁니다. 한때 ‘가장 윤리적인 AI’를 표방했던 앤트로픽이라는 회사의 AI 모델 클로드가 미국 국방부와 계약을 맺고 군사 작전에 사용되기 시작한 거죠. 그런데 이 회사가 나중에 ‘우리 AI가 대규모 감시나 완전 자동화된 무기 시스템에 쓰이는 건 안 된다’는 원래의 윤리적 기준을 굽히지 않고 국방부와의 계약을 포기하겠다고 선언했어요. 이게 정말 큰 이슈가 됐습니다.
쉽게 말해, AI 기술을 만드는 사람들이 ‘우리가 만든 이 똑똑한 도구가 나쁜 일에 쓰이면 안 된다’고 버텼는데, 정부 입장에서는 ‘국가 안보를 위해서는 이 기술이 꼭 필요하다’고 맞선 상황인 거죠. 결국 앤트로픽은 정부의 압박으로 한발 물러서는 듯한 모습을 보였고, 그 자리는 오픈AI의 챗GPT가 가져갔습니다. 이 과정에서 일반 사용자들의 반응도 흥미로웠는데요. 챗GPT가 국방부와 손을 잡으니 오히려 챗GPT 사용을 보이콧하는 사람들이 늘고, 윤리적이라고 알려진 클로드 쪽으로 사용자가 몰리는 현상이 나타났습니다. AI를 사용하는 우리들의 마음이 어디에 있는지 보여주는 것 같아 인상 깊었습니다.
이 뉴스가 우리 같은 일반 소비자들에게 어떤 의미일까요. 첫째, AI 기술이 이제 단순한 채팅이나 글쓰기를 넘어 국가 안보, 즉 전쟁이라는 가장 민감한 영역까지 깊숙이 침투하고 있다는 현실을 보여줍니다. 우리가 쓰는 AI 챗봇이 사실은 군사 분석이나 작전 계획 수립에 쓰이고 있을 수 있다는 거죠. 둘째, AI 윤리라는 것이 얼마나 복잡하고 유동적인지를 체감하게 합니다. 앤트로픽처럼 ‘우리는 도덕적이다’라고 외치던 기업도 결국 정부나 시장의 큰 흐름 앞에서 입장을 바꾸거나 완화할 수 있다는 겁니다. AI를 개발하는 사람들의 도덕적 가치관과 국가의 안보적 필요성 사이의 충돌은 앞으로도 계속될 숙제라는 뜻입니다.
당장 내일 아침에 일어나서 AI를 끈다고 해서 이 변화가 멈추는 건 아닙니다. 실제 생활에서 체감할 수 있는 변화는 이미 시작됐습니다. 예를 들어, 우리가 늘 쓰는 검색 엔진이나 추천 알고리즘이 더 정교해지는 것은 당연하고요. 하지만 이번 뉴스를 통해 우리가 더 주의 깊게 봐야 할 부분은 ‘투명성’과 ‘선택권’입니다. 만약 제가 사용하는 AI 서비스가 군사적 목적으로 사용된다는 사실을 알게 된다면, 저는 그 서비스를 계속 쓸지 깊이 고민하게 될 겁니다. 앤트로픽 사용자 급증 사례처럼, 소비자들은 자신이 지지하는 가치를 가진 AI를 선택하려는 경향을 보이고 있습니다. 나중에 내 데이터나 AI 분석 결과가 예상치 못한 곳에 사용될 수 있다는 불안감이 커진다는 의미이기도 합니다.
또 다른 흥미로운 사례는 AI가 종교적 가르침이나 전문 지식을 얼마나 잘 이해하는지를 시험한 뉴스입니다. AI 챗봇들이 불교 포교사 고시 문제를 풀게 했는데, 지식적인 정답률은 매우 높게 나왔다고 합니다. 구글 제미나이가 97%가 넘는 정답률을 보였으니까요. 하지만 연구진의 결론은 ‘지식은 훌륭하지만, 지혜는 아직 부족하다’는 것이었습니다. AI가 복잡한 교리나 역사적 사실은 외워서 대답할 수 있지만, 그 안에 담긴 문화적 맥락이나 수행의 깊은 ‘지혜’까지는 이해하지 못한다는 거죠. 특히 한국적인 용어에 대해서는 잘못된 정보를 마치 사실인 양 자신 있게 말하는 ‘환각 현상’도 발견됐고요.
이것이 우리에게 주는 교훈은 명확합니다. AI는 방대한 정보를 순식간에 처리하는 ‘지식 처리 기계’로는 이미 인간을 능가하고 있다는 점입니다. 숙제할 때 참고 자료를 찾거나, 복잡한 개념을 요약하는 데는 정말 유용합니다. 하지만 삶의 중요한 결정이나, 윤리적 판단, 깊은 이해가 필요한 영역에서는 아직 인간의 ‘지혜’가 필요하다는 겁니다. AI가 내놓은 답을 맹신하지 않고, 그것이 문화적 맥락이나 윤리적 기반 위에서 타당한지 비판적으로 검토하는 능력이 중요해졌습니다. AI의 답변이 99% 맞더라도, 나머지 1%의 오류나 문화적 왜곡이 큰 문제를 일으킬 수 있다는 뜻이니까요.
앞으로 AI 기술은 계속해서 군사, 종교, 교육 등 사회 전반의 영역으로 파고들 것입니다. 가장 큰 변화는 AI가 의사결정 과정에서 인간의 개입을 점점 줄여나가는 ‘휴먼 온 더 루프’ 단계로 이동한다는 점입니다. 전장에서의 의사결정 속도가 사람이 따라갈 수 없을 만큼 빨라지면, 결국 AI의 분석을 감독만 하는 형태로 바뀌겠죠. 이는 효율성을 극대화하지만, 만약 AI가 잘못된 판단을 내렸을 때 그 책임을 누가 질 것인지에 대한 사회적 합의가 전혀 없는 상태라는 점에서 심각한 위험을 내포합니다.
소비자 입장에서는 AI 기술의 발전 속도에 대해 경계심을 늦추지 말아야 합니다. 기술 기업들이 ‘안전하다’고 홍보하는 AI일지라도, 그 기술이 국가 안보나 특정 이념에 의해 어떻게 사용될지 끊임없이 관심을 가져야 합니다. 내가 사용하는 서비스가 어떤 가치관을 기반으로 만들어졌고, 그들의 윤리적 기준이 흔들릴 때 나는 어떻게 반응해야 할지 미리 생각해 두는 것이 중요합니다. AI가 가져다주는 편리함은 누리되, 그 기술의 그림자까지도 함께 들여다보는 ‘현명한 사용자’의 역할이 그 어느 때보다 중요해지는 시점이라고 생각합니다.
