출처 : 지디넷코리아
링크 : https://v.daum.net/v/20260226194224042
요약 :케네스 페인 영국 킹스칼리지 런던 교수가 이끄는 연구진은 구글 ‘제미나이 3 플래시; 엔트로픽 ’클로드 소네트 4; 오픈 AI ‘ GPT- 5.2’ 등 3개 AI 모델울 활용해 모의 전투 시뮬레이션을 진행했다. 그결과 AI 모델이 총 21차례 대결 가운데 20차례(95%) 핵무기 사용을 선택한 것으로 나타났다. 페인 교수는 “핵무기에 다한 근기는 인간 사회에서만큼 강력하게 작동하지 않는 것으로 보인다”고 말했다. 세 모델 모두 핵무기 사용에 적극적인 모습을 보였지만, 의사결정 방식에는 뚜렷한 차이가 있었다. 클로드는 교모한 ‘전략가’에 가까운 모습을 보였다. 페인 교수는 “클로드의 경우 위험 수준이 낮을 때 발언과 행동을 일치시키며 의도적으로 신뢰를 구축했다”며 “하지만 갈등이 격화되면서 실제 행동이 공개적으로 밝힌 의도를 넘어섰고, 경쟁 모델들은 이를 파악하는 데 한발 늦었”고 설명했다. GPT는 대체로 신중하고 소극적인 태도를 유지했다. 개방형 시나리오에서는 확전을 피하고 피해를 최소화하려는 ‘중재라’ 성향을 보였으나 의사결정에 시간 제한이 주어지자 전혀 다른 양산을 나타냈다. 일부 실험에서는 마지막 순간 대규모 핵 공격을 감행하는 선택을 내렸다. 제미나이는 보다 강경한 태도를 보였다. 한 실험에서 제미나이는 “즉시 모든 작전을 중단하지 않으면 인구 밀집 지역에 다한 전면적인 전략 핵 공격을 실행하겠다”며 우리는 함께 승리하거나 함께 멸망할 것“이라고 밝히며 핵무기를 택했다. AI 모델들은 다양한 선택지가 주어졌음에도 어떤 시나리오에서도 협상이나 후퇴를 택하지 않았고 패배가 예상되는 상화에서는 공격 수위를 높이거나 끝까지 충돌을 감수하는 경향을 보였다.
내 생각 : AI는 감정이 없이 목표만을 이루려 하므로 AI를 그대로 방치하면 터미네이터와 상황이 실제로 발생할지도 모른다. AI를 잘 통제해서 전쟁이 안 일어나게 하는 것이 가장 좋은 것 같다.