"기계가 생각한다면, 그들에게도 영혼이 있을까?"
인공지능(AI)이 시를 쓰고, 그림을 그리고, 대화를 나눕니다. 기술적 특이점이 다가오는 지금, 인류는 질문해야 합니다. "고도로 발달한 AI는 의식을 가질 수 있는가?" 만약 AI가 고통을 느끼고 자아를 가진다면, 우리는 그들을 가전제품으로 대해야 할까요, 아니면 새로운 생명체로 존중해야 할까요?
컴퓨터 과학의 아버지 앨런 튜링은 '기계가 생각할 수 있는가'라는 모호한 질문 대신 실용적인 테스트를 제안했습니다. 만약 채팅을 통해 인간이 상대방이 기계인지 인간인지 구별할 수 없다면, 그 기계는 지능이 있다고 인정해야 한다는 것입니다(튜링 테스트). 이는 내면의 의식보다 외부로 드러난 행동과 결과에 집중하는 관점입니다.
철학자 존 설은 이에 반박하며 중국어 방 사고 실험을 제안했습니다. 중국어를 전혀 모르는 사람이 방 안에서 완벽한 매뉴얼에 따라 중국어 질문에 답을 내보낼 수 있습니다. 겉보기엔 중국어를 하는 것 같지만, 그는 뜻을 전혀 '이해'하지 못합니다. AI도 마찬가지로 0과 1을 처리할 뿐, '사과가 빨갛다'는 주관적인 느낌(퀄리아)을 느끼거나 의미를 이해하는 것은 아닐 수 있습니다. 의식은 단순한 계산 그 이상일까요?