사업 아이디어

국내외 스타트업계 최신 소식 및 업계 동향을 확인하는 공간입니다.

사람 죽이는 인공지능? 제3의 전쟁혁명이 온다
  • 등록일2019.03.06
  • 조회수161
  • 댓글0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

지난 4월 5일.

토비 월시 호주 뉴사우스웨일스대 교수를 비롯한

30개국 AI 연구자 57명이 공동성명을 발표했다.

 

그 내용은 KAIST와의 연구 협력을 전면적으로 거부하겠다는 것.

이유는 KAIST가 국방인공지능융합연구센터를 개소했기 때문이다.

 

“유의미한 인간의 통제가 없는 자율무기(autonomous weapons lacking meaningful human control)를 개발하지 않겠다는 약속 전에는 모든 협력을 보이콧하겠다.”

성명서 내용 중

 

이후 KAIST측에서 성명을 발표하며 보이콧은 철회됐지만,

이 사건은 AI 학계에서 큰 이슈로 남았다.

 

“살상용 무기 또는 공격용 무기개발은 국방인공지능 융합연구센터의 설립 목적이 아니다.”

“통제력이 결여된 자율무기에 관한 연구 활동을 수행하지 않을 것이다.”

카이스트 입장

 

전 세계 연구자들이 힘을 모아

한 연구기관을 보이콧하는 일은 흔치 않다.

도대체 인공지능 자율살상무기가 무엇이길래

이렇게 큰 난리일까?

 

자율살상무기는 말 그대로

인공지능이 스스로 판단해

인간을 죽일 수 있는 무기다.

이들은 무서울 정도로 정교하고 효율적이다.

 

전문가들은 자율살상무기의 등장이

핵폭탄, 항공기 수준으로

전쟁 판도를 바꿀 것이라 예측한다.

때문에 ‘제3의 전쟁 혁명(third revolution in warfare)’

이라고도 부른다.

안면인식 센서를 가진 드론이

특정인을 암살한다면 피할 수 있을까?

심지어 인간보다 100배 이상 빠르고

총알도 피할 수 있다.

 

단순 살상무기만 있는 것도 아니다.

적군의 대응을 파악해 전략을 짜는 등

인공지능의 활용가치는 무궁무진하다.

 

때문에 수많은 나라들이

앞 다퉈 관련 연구에 나서고 있다.

미국만 해도 미래형 국방 시스템 구현이란 명목으로

약 239억 달러를 예산으로 투입했다.

 

하지만 이는 많은 논란을 부르고 있다.

일단 윤리적 측면.

최소한 살상에 대한 최종 결정과 책임은

인간이 져야 한다는 주장이다.

 

“아무리 비윤리적인 명령이라도 가치 판단이 없는 AI 무기는 24시간 무조건 따를 것이다.”

- 토비 월시 호주 뉴사우스웨일스대 교수

 

물론 로봇끼리 싸우기 때문에

최종적으로 인명 피해가 줄어든다는 의견도 있다.

그러나 인명 피해가 없기에

전쟁에 대한 결정도 쉬워진다는 반박이 따른다.

 

기본적으로 사람의 개입 없이

표적을 선택하고 교전하기에

무고한 피해자가 나올 수 있다.

인공지능의 판단에 따라 전쟁이 개시되는

비극도 가능하다.

 

해킹의 위험성도 간과할 수 없다.

낮은 확률이지만, 테러범의 해킹이 성공한다면?

지금의 폭탄테러와는 비교할 수 없을 정도로

끔찍한 일이 벌어질 것이다.

 

가장 절망적인 시나리오는

AI가 자유의지를 갖고 예측 못한 범위로 발전하는 경우.

영화 터미네이터가 현실이 될 수도 있다.

 

 

때문에 많은 과학자들은 당장

자율살상무기를 비롯한 인공지능 무기 개발의

중단을 요구하고 있다.

 

“한 번 판도라의 상자가 열리면, 이를 닫는 것은 매우 힘든 일이 될 것이다.”

- 과학자들이 자율살상무기 방지를 촉구하며 UN에 보낸 공개서한 중 -

 

AI의 군사적 활용은 이미

핵무기만큼 위협적이다.

범지구적 가이드라인 마련 및

강력한 통제가 절실히 필요한 시점이다.

 

* 출처 : https://bit.ly/2HhUQg0

  • 출처 : https://bit.ly/2HhUQg0

    KISTI과학향기 연계 · 협력을 통해 제공되는 서비스입니다.