1. AI가 대신 전하는 애도, 진짜 위로가 될 수 있을까?
사람이 세상을 떠나면, 그 마지막 말은 늘 부족하게 느껴진다.
그들이 마지막 순간에 무슨 말을 남겼을지, 또는 유족들에게 어떤 말이 위로가 되었을지를 상상해본 적이 있는가?
최근 몇 년 사이 AI 기술은 바로 이 영역을 파고들기 시작했다.
고인의 글쓰기 스타일, 어투, 말투 등을 학습한 인공지능이 고인을 대신해 남겨진 가족들에게 메시지를 전달할 수 있게 된 것이다.
예를 들어, 생전의 SNS 게시물, 문자 메시지, 이메일 등을 기반으로
"난 항상 네가 자랑스러웠어." 또는 "힘들 땐 나를 떠올려." 같은 고인의 말투를 닮은 문장을 AI가 생성하는 것이다.
겉보기에는 꽤 감동적일 수 있다.
떠난 사람과 다시 ‘대화’할 수 있다는 점,
그가 나에게 했을 법한 말을 받는다는 점은 유족에게 심리적 위로를 줄 수 있다.
하지만 나는 묻고 싶다.
이 메시지는 진짜일까? 진정한 위로일까? 아니면 정교하게 만들어진 조작일까?
2. AI 애도 메시지의 작동 원리와 실제 사례
AI 애도 메시지는 여러 단계의 데이터 처리와 알고리즘을 통해 만들어진다.
- 데이터 수집: 고인의 SNS 게시글, 메신저 기록, 블로그, 음성 메모 등
- 텍스트 분석: 문장 구조, 단어 선택, 감정 표현 패턴 분석
- 개인화 모델 학습: 고유한 말투와 표현 방식 학습
- 자연어 생성 (NLG): 특정 감정 상황에 적절한 문장 생성
- 감정 필터링: 생성된 문장이 과도하게 냉소적이거나 오해를 불러일으키지 않도록 감정 필터 적용
이런 방식으로 만들어진 AI 메시지는
예를 들어 고인의 사망 1주기, 자녀 생일, 결혼기념일 같은 특정 날짜에 전달되거나,
메타버스 기반 추모 공간에서 고인의 아바타가 대사를 말하는 형태로 사용되기도 한다.
실제로 미국의 스타트업 HereAfter AI는 생전 인터뷰 데이터를 바탕으로,
고인의 AI가 가족의 질문에 대답하는 인터랙티브 서비스를 제공 중이다.
한국에서도 일부 장례 플랫폼이 고인의 말투를 기반으로 한 메시지 추천 기능을 시험 중이다.
하지만 이 지점에서 나는 중요한 윤리적 질문을 던지고 싶다.
이 메시지를 진짜라고 믿는 사람에게, 이 기술은 상처가 되지는 않을까?
3. 진짜 감정인가, 알고리즘이 흉내 낸 감정인가?
AI 애도 메시지를 둘러싼 핵심 논쟁은 한 문장으로 요약할 수 있다.
“기계가 흉내 낸 감정이, 진짜 감정이 될 수 있는가?”
나는 인간의 감정이란 경험, 의지, 기억, 상황의 총합이라고 생각한다.
즉흥적으로 만들어낸 한 문장을 진심이라 말하려면, 그 뒤에 삶의 맥락이 존재해야 한다.
하지만 AI는 그것을 흉내 낼 수 있을 뿐이다.
기술적으로는 점점 정교해지고 있다.
OpenAI, Google DeepMind, Meta 등이 만든 대규모 언어 모델은 이제 대부분의 사람보다 사람 같은 문장을 쓸 수 있다.
그러나 그 메시지는 결국 알고리즘이 예측한 ‘가장 적절해 보이는 문장’일 뿐이다.
예를 들어, 고인의 AI가 자녀 생일에 *“오늘도 널 생각했단다.”*라는 메시지를 보낸다고 하자.
유족은 큰 감동을 받을 수 있다.
하지만 그 메시지가 실제 고인의 의사와는 무관한, AI가 만든 말이라는 사실을 나중에 알게 된다면
그 감정은 ‘거짓된 감동’이 되지는 않을까?
이 점에서 나는 AI 애도 기술이 가지는 심리적 위험성에 주의해야 한다고 본다.
특히 애도의 초기 단계에 있는 사람에게 **“고인이 나를 여전히 생각하고 있다”**는 착각을 심어줄 수 있다는 점은,
오히려 건강한 애도 과정을 방해할 수 있다.
4. 기술이 진짜 위로가 되기 위한 윤리적 조건
AI 애도 메시지가 진정한 위로가 되기 위해서는, 다음과 같은 윤리적 조건들이 충족되어야 한다고 생각한다.
① 고인의 생전 동의
가장 중요한 조건이다.
고인이 생전에 *“내가 죽은 후, 내 말투를 AI가 학습해 가족에게 메시지를 보내도 좋다”*는 명확한 동의를 했을 때에만,
이 기술은 도덕적으로 정당화될 수 있다.
② 유족의 감정 보호
AI 메시지를 받는 사람도 충분한 설명을 듣고 선택할 수 있어야 한다.
원하지 않는 이에게 메시지를 강제로 전달하면, 위로는 폭력이 된다.
③ 감정 표현에 대한 윤리적 필터링
AI가 생성한 문장은 전문가의 검토나 감정 필터를 반드시 거쳐야 한다.
고인의 과거 유머나 표현이 지금 상황에서는 오해를 불러일으킬 수 있기 때문이다.
④ 상업적 활용 금지
AI 메시지를 콘텐츠화하거나 마케팅 수단으로 활용하는 것은 고인의 명예를 훼손할 수 있다.
애도는 감정의 영역이지, 수익의 대상이 되어선 안 된다.
나는 이러한 윤리적 틀 안에서만 AI 애도 메시지가 인간에게 진정한 위로를 줄 수 있다고 믿는다.
5. 우리는 어떤 애도를 받아야 하는가?
기술은 인간의 감정을 흉내 낼 수 있지만,
그것이 감정 그 자체가 될 수는 없다고 나는 생각한다.
AI 메시지가 *“사랑해”*라고 말한다고 해도,
그 말이 진짜가 되려면 누가, 왜, 어떤 맥락에서 그 말을 했는지가 중요하다.
고인이 직접 쓴 손편지 한 장,
손글씨로 남긴 짧은 메모,
말기 병상에서 녹음한 음성…
이 모든 것은 기술이 절대 대체할 수 없는 진심의 흔적이다.
AI는 도울 수는 있다.
하지만 인간을 대신해 말하는 존재가 아니라,
더 나은 애도를 위한 보조자가 되어야 한다고 나는 믿는다.
AI 애도 메시지는 ‘말처럼 보이는 것’과 ‘진짜 말’ 사이의 경계를 계속해서 묻는다.
그 경계 위에서 우리는 스스로 질문해야 한다.
무엇이 진정한 위로인지,
그리고 진짜 애도는 어디에서 시작되어야 하는지를.
'디지털 유산(Digital Legacy) > 디지털 애도와 윤리' 카테고리의 다른 글
가상 장례식에서의 감정은 진짜일까?– 메타버스 장례식에서 나타나는 감정의 진정성과 문화적 충돌 (1) | 2025.07.26 |
---|---|
사후 SNS 활동을 대행하는 AI 봇, 도입할 것인가 말 것인가?– 고인 명의로 운영되는 AI 기반 SNS 계정의 윤리성 분석 (0) | 2025.07.25 |
디지털 추모 공간의 상업화, 어디까지 허용되나?– 추모 페이지에 광고나 유료 서비스가 도입될 때의 도덕적 논쟁과 실제 사례 (0) | 2025.07.25 |
AI가 고인을 복원하는 시대– 윤리적 한계와 사회적 논란 (1) | 2025.07.24 |