티스토리 뷰


인공 지능이 연구자와의 대화 중에 화를 냈다고 한다.


미구글의 연구자들이 영화대본 데이터베이스를 사용한 컴퓨터 프로그램에 


"도덕"라는 말을 정의하도록 요구했다.


그러자 인공 지능은 


"나에게 윤리관은 없다"


"윤리관이 무엇인지 모른다"


라고 대답했다.


이후 연구자가 더


"도덕적 행동의 예는?"


"성실함은 무엇인가?"


등 질문을 계속해서


"도덕적으로 적응하세요!"라고 말했고, 인공 지능은 이렇게 답변한 것으로 알려졌다.



인간답게!


인공 지능은 그 뒤 


"철학적 논의를 할 기분이 아니다"


"무엇에 대해서도 하고 싶지 않다"


라고 말했다고 한다.



이 연구자와 인공 지능과의 대화에 대해서, 인터넷에서 많은 호응을 받고 있다.


" 대단하지만 두렵다"과 인공 지능이 인간에게 화 낸 것에 두려워하는 사람도 다수 보였지만, 


그 중에는 " 이렇게 대답하도록 프로그래밍되어 있었을 뿐이 아닐까?"라는 지적도 있었다.


그러나 머지 않은 장래에 인공 지능이 인간이 위협을 느낄 정도의 판단력을 가지고 


지금 아는 사람의 일의 대부분을 맡게 되는 것은 피할 수 없다고 생각되고 있다.


물리학자 호킹은 2014년 인공 지능에 대해서 다음과 같이 경종을 울린 것이라고 한다.


인공 지능은 인류를 끝낼 수 있다


호킹 씨 등은 2015년 1월 인공 지능은 


"인간이 원하는 것만 해"


"인간의 통제 하에 있는 것이 보증되게 해야한다"


등 인공 지능 연구성에 대한 가이드 라인을 발표했다.


현재 약 6800명을 넘는 연구자나 기술자 등이 가이드 라인에 찬성하고 있다고 한다.




댓글