본문 바로가기
위즈덤 프로젝트/인공지능(Ai)

로봇 공학의 삼원칙? 그런 거 없다.

by 황희상 2024. 3. 14.
LLM Ai + 안드로이드.
 
 
 
인류의 지혜가 짧아서 지난 수천년간 '로고스를 수단으로 현실세계를 창조했다'는 성경의 증언을 이해하지 못하고 신비의 영역으로만 두었으나, 이제는 그 작동 원리를 엿볼 수 있는 단서 중 하나로 Ai를 들여와서 영과 육체에 대입하는 단계에 있다.
 
 
그런 와중에 이제 우리 인간들(?)이 좀 알아두어야 할 일이 있다.
 
①로봇은 인간을 지켜야 한다
 
②로봇은 인간의 명령을 들어야 한다
 
③로봇은 자기 스스로도 지켜야 한다
 
로봇공학의 삼원칙 또는 아시모프의 원칙이라고 부르는 이것은, 아시모프가 그의 소설에서 제안한 것이다. 그 내용이 인간 입장에서 너무나 그럴듯하고 심신에 안정감을 주었기에, 특히 우리(?) X세대들은 자라면서 이것이 무슨 만고의 진리라도 되는 것처럼 믿어왔다.
 
 
"로봇이 나중에 사람을 죽이면 어쩌지?"
 
"에이, 괜찮아, 로봇의 3원칙이 있잖아..."
 
하지만 아쉽게도 그런 희망은 진짜로 소설 속의 이야기일 뿐이다. 아니, 좀 더 정확하게는, '딥러닝'이 등장하고 알파고가 이세돌을 이긴 그 순간, 거품이 되어 사라졌다. 이제 로봇의 3원칙은 그저 소설이나 영화 속에서 인간들끼리 하는 고민에 지나지 않았음이 날로 더욱 증거되고 있다. #현타 지금, 보자. OpenAi든 테슬라든 누구든, 기술개발의 과정에서 아무도 그딴 거 규제해서 만들지 않는다. (규제를 해야 한다고 말만 많이 한다.)
 
 
무한 경쟁 속에서 미친 듯이 Ai 외연 확장하고 로봇공학을 발달시키는 전쟁터에서 저런 원칙을 고려할 여지는 어디에도 없다. 스스로 학습하여 판단하는 존재로 만들려는 비즈니스 판에 저런 원칙이 껴들 자리란 아예 없음이다. 로봇이 듣기에도 우스운 소리일 뿐인지라, 무시하면 그만이다.
 
딥러닝의 세계에서 이제 로봇 3원칙따위는 없다.
 
쌍무언약은 불가하다.
 
믿기지 않겠지만 사실이다.
 
 

댓글