[TE머묾] 너에게 묻는다, 인공지능에 묻는다
‘에게’라는 조사는 보통 사람에게 쓴다. 그래서 연적 철수에게 야유를 던지고, 그녀 영희에게 꽃다발을 바치며, 말 퍼트리는 기자들에게 삿대질한다고 쓴다. 하지만 회사에게 손해를 청구하지 않고, 일본에게 사과를 요구하지 않으며, 산에게 살랑살랑 손짓하지 않는다. 그럴 때는 ‘에’만 쓴다. 회사에 청구하고 일본에 요구하고 산에 손짓한다는 식으로. 예외가 되는 경우들이 있지만, 기자들은 이 ‘에게’와 ‘에’를 꽤나 엄격히 구분해서 쓰는 편이다.
인공지능이라면 어떨까? 이야기가 달라진다. 먼저 기자들부터 중구난방이다. 기사들을 보면 인공지능에게 물었다는 문장도 나오고, 인공지능에 기대한다는 헤드라인도 존재한다. 인공지능이라는 걸 어떻게 인식하고 있느냐가 이 ‘조사’ 하나에서 드러난다. 요즘 많은 사용자들이 챗GPT 프롬프트에 대고 진로와 연애 상담까지 한다고 하는데, 그저 심심풀이 땅콩으로 대화한 것뿐이라 하더라도, 그런 경험이 많다면 당연히 그 대화 상대에게 ‘에게’ 정도 붙여도 어색하게 느껴지지 않았을 것이다. 반대의 경우라면 ‘인공지능에게 물었다’ 같은 문장이 어느 각도로 봐도 이상하다.
필자는 후자다(‘후지다’ 아님, 아무튼 아님). 일상 속에서 인공지능과의 접촉을 아무리 해도 ‘에게’를 허락할 정도로 숨결이 느껴지지 않는다. 차가운 기계일 뿐이다. 끽해야 ‘한테’ 정도 용인 가능하다. 기술적 발전의 소식들, 이를 테면 번역가들 설 곳이 없다더라, 이제 기사도 기자보다 더 잘 쓰고, 심지어 소설도 그럴듯하게 쓴다더라, 하는 것들을 싫어도 듣게 되는데, 외신 가져다 번역해 버무리는 필자는 숨결은커녕 그 차가운 기계가 하루하루 목을 조여 오는 듯한 기분을 느낄 수밖에 없다. ‘에게’는 더 저만치 멀어진다. 세월에 떠밀려 간다 하더라도 ‘사람에게’ 밀리고 싶지 ‘기술에’ 부정당하기는 싫은 걸까.
챗GPT에 직접 물었다. 너는 스스로 뭐가 맞다고 보느냐고. 답이 가관이다. “[인공지능에게 물었다]가 더 맞습니다. ‘에게’는 주로 인격체를 대상으로 할 때 사용하는데, ‘에’는 무생물 등 인격이 없는 대상을 가리킬 때 사용하기 때문입니다. 인공지능이 사람처럼 대화하고 반응하기 때문에 사람처럼 대우하는 맥락에서 ‘에게’를 쓰는 것이 자연스럽습니다.” 그러면서 “[인공지능에 물었다]는 문장은 다소 어색할 수 있다”라고 마무리하기까지 한다. 그러니까 이 기술은 자신을 인격체로 인정하고 있다는 의미다.
나랑 대화가 가능하고, 대화의 경험도 존재한다고 해서, 그 상대를 인격체로 볼 수 있는 걸까? 사람처럼 말할 줄만 안다면 인격체가 되는 걸까? 중학교 때 풀었던 생물 문제가 생각난다. 보기 중 생물로 분류 가능한 것을 찾으라는 객관식 문제였는데, 필자는 틀렸었다. 당시 필자가 꼽은 보기는 ‘자란다’였는데, 아니었다. 해설서를 보니 ‘석순도 자라는데, 석순은 생물이 아니다’라고 적혀 있었다. 생각이 다 안 나지만 나머지 보기들도 그럴듯했던 인상이 남아 있다. 생물의 단편적 특성들을 가져왔기 때문이다. 결국 지문의 ‘단편적’ 내용 모두를 합쳐야 비로소 ‘생물’이라고 정의할 만한 것이 탄생한다는 걸 강조하는 게 출제자의 의도였고, 그때 무릎을 짝 갈겼던 기억이 있다.
인격이란 무엇인가? 철학과 심리학으로 따지자면 글이 산으로 갈 것 같아 간단히 국어사전에 나온 내용을 인용하자면 다음과 같다. “사람으로서의 품격.” 인공지능으로부터 우리는 사람으로서의 품격을 기대할 수 있을 정도까지 왔나? 여러 가지 기술적 소식(인공지능은 아직 기술 분야에 종속되어 있으므로)을 종합했을 때, 아직 인공지능은 사람에 근접했다고 말하기 민망한 수준인 것으로 보인다. 거짓을 잘 생성하고, 환각 증상을 곧잘 보이며, 따라서 인공지능이 내놓은 답변을 사람이 검사하는 과정이 필수이기 때문이다. 신뢰가 어렵다는 것이다.
‘거짓’, ‘환각’, ‘오류’ 등이 인간과 그 나머지를 가르는 기준이 될 수 없다는 반박이 있을 수 있다. 왜냐면 그것들은 인간들에게서도 자주 나오는 것이므로. 하지만 비율이 다르다. 우리는 대화 중 상대가 높은 확률로 진실을 말하고, 환각을 겪지 않으며, 오류도 최소한으로만 낼 것이라고 은연중 신뢰한다. 반대의 경험이 누적되면, 고 특정 상대에게만 경계 태세를 취한다. 인공지능의 경우, 앞뒤가 완전히 뒤바뀐다. 아직 우리는 인공지능을 일일이 검사할 정도로 ‘틀릴 수 있다’는 걸 기저에 깔고 간다. 그러다 특정 모델이 계속해서 정답을 내는 걸 경험하면, 고 특정 모델에 한해서만 경계를 느슨하게 푼다. 그러므로 기술적 성취도로 따지자면, 인공지능이 사람의 품격에 가까워졌다고 하기는 힘들다.
그래서인지 기술 개발이 지치지도 않고 이뤄지는 중이다. 설명가능성과 (인공)감정이 이다음에 올 것들이다. 인공지능의 사고방식을 설명할 수 있게 된다면 인격에 더 가까워지는 걸까? 인공지능이 감정까지 다루도록 하는 기술이 완성된다면 인공지능은 더더욱 사람과 비슷한 대우를 받아도 되는 걸까? 이 모든 질문들은 결국 이렇게 귀결된다. “사람처럼 말해, 사람처럼 생각해, 사람처럼 느껴, 그러면 인격체가 완성되는 걸까? 인격체를 구성하는 재료는 생각과 말과 감정뿐일까?”
생명 없이도 자라는 사례로서 석순이 존재하기에, 우리는 ‘자라는 것만으로는 생명이라고 할 수 없다’고 대대로 가르칠 수 있다. 하지만 ‘사람과 똑같이 생각하고 말하는 존재’는 사람밖에 없었다. 그러니 ‘이것만 있으면 인격체로서 충분하다’ 라거나 ‘이것만으로는 인격이 될 수 없다’라는 고민을 할 필요가 없었다. 사람이 유일했으니까. 인공지능의 등장은, 다만 그 기술의 강력함 외에도 이런 최초의 고민을 시작하게 하기에 의미심장하다. 최초의 복제 양 돌리가 태어났을 때보다 상황은 더 복잡하다. ‘인격’이라는 것을 우리는 이제 어떻게 정의해야 하는 걸까?
일단 법률 쪽에서는 ‘법인격’을 인공지능에 부여하는 방향으로 흘러가고 있다. 다만 법조계 전체가 합의한 것은 아니다. 게다가 법인격과 인격은 다른 개념이라, 법인격이 인정된다고 해서 인격이 있다고 말할 수 없다. 애초에 법인격은 법적 절차를 밟을 때의 편의성을 위해 발명된 것이라 인격 그 자체와 동치 시키기에는 무리가 있는 것이다. 하지만 ‘편의성을 위해 개발한 개념’이라는 것은 참고할 만하다. 인공지능이 인격을 가지고 있느냐 없느냐,라는 답 없는 논쟁을 계속 이어가느니 인공지능만을 위한 인격 개념을 파생시키는 것도 임시방편이 될 수 있을 것이다. ‘인공지능격’이라든가 ‘인공인격’이라든가 하는 이름까지 붙여서.
아직 인공지능의 프롬프트에서 차가운 기계음을 먼저 듣는 것 같은 필자에게는 이런 제3의 선택지가 반갑다. 아무리 세상이 ‘인공지능에도 인격이 있다’고 외친다 한들, 도무지 개인의 양심으로는 인정이 되지 않는데, 계속해서 ‘인공지능에게 물었더니’와 같은 문장을 써야 한다면, 얼마나 괴로운 일일 텐가. 그렇다고 ‘인공지능에 물었다’를 썼을 때 열열하고도 민감한 안티독자들의 ‘지금 인공지능 차별하냐’와 같은 무시무시한 항의 메일을 받는 것도 얼마나 무서울 텐가. 그럴 때 도피처 한 군데 있으면 안심이다. 다만 글을 쓰기 위한 목적으로서, 혹은 그 밖의 이유로, 인격과는 별개의 개념인 인공인격을 인용해야 한다면, 그럴 수 있다. 그러니 누군가 그런 개념 좀 창작해 줬으면 좋겠다.
그러므로 현시점의 정답은 나왔다. 둘 다 쓰는 거다. 대신 상황에 맞게. 인공지능을 대화 상대로서 대우하는 맥락에서라면 ‘에게’를 쓰고, 그저 기술로서 묘사하는 맥락에서라면 ‘에’를 차용하는 식이다. ‘건물 벽에 속삭였다’가 맞는 문장이지만, 그 건물 벽을 의인화해서 이야기가 이어지는 문학적 상황에서라면 ‘건물 벽에게 속삭였다’도 틀리지 않게 되는 것처럼. 다만, 쓰는 사람이나 읽는 사람이 ‘에게’나 ‘에’라는 사소한 요소들을 통해 뉘앙스를 세밀히 구사하고 현미경처럼 파악해야 한다.
음... 인공지능으로 삶이 편해지기는 무슨.