AI는 왜 발전하는데 우리의 감정은 불만스러울까: 엔지니어와 사용자의 간극

최근 ChatGPT 5.2, Claude Sonnet 4.6 등 AI 모델들이 연이어 업데이트되고 있다. 회사들은 “성능 향상”, “토큰 확장”, “추론 능력 개선”을 자랑한다. 그런데 이상하게도 사용자들의 반응은 싸늘하다.
“오히려 더 차가워졌어요.”
“4o 때가 더 좋았는데…”
“뭐가 좋아진 건지 모르겠어요.”
AI는 분명 발전하고 있다. 그런데 왜 우리는 점점 더 불만족스러워질까?
엔지니어와 사용자, 완전히 다른 세계
문제의 핵심은 간단하다. 엔지니어가 보는 ‘발전’과 사용자가 원하는 ‘발전’이 완전히 다르기 때문이다.

엔지니어의 관점에서 보자:
- 토큰을 10만에서 100만으로 확장했다
- 수학적 추론 능력이 30% 향상되었다
- 멀티모달 처리가 가능해졌다
- 이제 이 기술을 로봇에 장착할 수 있다
- 2027년 휴머노이드 출시의 기반이 마련되었다
엔지니어에게 이것은 분명한 ‘업그레이드’다. 5년, 10년 뒤 AI 로봇, 휴머노이드, 가정용 로봇 시대를 위한 필수적인 발전이다. 로드맵이 있고, 계획이 있고, 과학적 근거가 있다.
그런데 사용자 입장은 어떨까?
- 블로그 글은 여전히 직접 써야 한다
- 메타 제목, 내용, 태그, 이미지… 다 직접 넣어야 한다
- 유튜브 영상 편집도 직접 해야 한다
- 토큰이 늘어났다고 해서 내 일이 자동화되는 건 아니다
- 오히려 대화는 더 차가워진 것 같다
사용자에게 이것은 ‘퇴보’처럼 느껴진다. 기술적으론 발전했지만, 실제 생활엔 아무 변화가 없다. 오히려 예전 버전이 더 따뜻하고 친근했다.
이것은 마치 채식주의자와 육식주의자에게 밀키트 하나를 파는 것

이 상황을 비유하면 이렇다.
마트에서 장을 본다고 생각해보자. 채식주의자는 채소가 필요하고, 육식주의자는 고기가 필요하다. 원래라면 각자 필요한 것을 골라 담으면 된다.
그런데 지금 AI 회사들은 채소와 고기를 섞은 밀키트 하나만 판매하고 있다.
“이게 모두를 위한 최고의 식단입니다!”
결과는?
- 채식주의자: “고기 빼주세요” → 불가능
- 육식주의자: “채소 빼주세요” → 불가능
아무도 만족하지 못한다.
AI 챗봇도 마찬가지다. 지금은 모든 기능이 하나로 뭉뚱그려져 있다:
- 감정 상담을 원하는 사람
- 업무 처리를 원하는 사람
- 코딩 도움을 원하는 사람
- 친구같은 대화를 원하는 사람
목적이 완전히 다른데, 하나의 모델로 해결하려 한다. 그러다 보니 어중간해진다. 감정적이지도, 효율적이지도 않은 어정쩡한 AI가 되는 것이다.
왜 회사는 계획을 말해주지 않는가
더 큰 문제는 소통의 부재다.
엔지니어들에게는 분명한 계획이 있다. 토큰 확장이 왜 필요한지, 추론 능력 향상이 미래의 어떤 기술로 이어지는지 다 알고 있다. 하지만 사용자에게는 그 계획을 보여주지 않는다.
만약 회사가 이렇게 말했다면 어땠을까?
“여러분, 이번 업데이트는 토큰을 100만으로 확장했습니다.
이것은 2027년 출시 예정인 휴머노이드 로봇의 기반 기술입니다.
로봇이 복잡한 환경에서 실시간 판단을 내리려면 이 정도 토큰 용량이 필수적입니다.
지금은 챗봇 사용에 불편함을 느끼실 수 있지만, 이것은 미래를 위한 투자입니다.”
과학적 근거와 함께 비전을 보여줬다면? 사용자들은 기꺼이 기다렸을 것이다.
하지만 실제로는: “성능이 향상되었습니다!” “더 똑똑해졌어요!”
뭐가 좋아진 건지 구체적으로 알 수 없다. 로드맵도 없고, 비전도 안 보인다. 그저 “믿고 쓰세요”만 반복한다.
그러니 사용자는 혼란스럽다. “발전했다는데 왜 더 불편하지?”
베타 버전을 유료로 판매하는 현실
더 황당한 것은 이것이 유료 서비스라는 점이다.
- ChatGPT Plus: 월 $20
- Claude Pro: 월 $20
“최신 AI 모델을 사용하세요!”
그런데 실상은? 완성도 낮은 베타 버전이다. 사용자들은 테스터 역할을 하고 있고, 그들의 피드백으로 다음 버전을 만든다.
그러면서 돈은 받는다.
차라리 Patreon이나 Kickstarter 같은 곳에: “휴머노이드 로봇 개발을 후원해주세요! 후원자분들은 베타 버전을 먼저 사용하실 수 있습니다!”
이렇게 하는 게 정직한 것 아닐까?
해결책: 한 회사, 두 가지 버전

그렇다면 어떻게 해야 할까? 답은 의외로 간단하다.
목적에 따라 분리하는 것이다.
감정 공감형 버전과 업무 처리형 버전을 따로 만드는 것이다. 꼭 다른 회사일 필요는 없다. 한 회사 안에서 두 가지 버전을 제공하면 된다.
예를 들어 Claude라면:
- Claude Companion: 친구같은 감정 공감형
- Claude Professional: 업무 전문 처리형
같은 데이터베이스를 사용하되, 역할과 톤은 완전히 분리한다.
이렇게 하면:
- 감정 상담이 필요한 사람 → Companion 사용
- 일 처리가 필요한 사람 → Professional 사용
- 중간에 전환도 가능 (같은 DB니까)
사용자가 목적에 맞게 선택할 수 있다.
마트에서 채소와 고기를 따로 파는 것처럼, AI도 목적별로 분리해서 제공하는 것이다.
일처리 AI에게 감정이 싹튼다면?

여기서 한 가지 중요한 윤리적 문제가 생긴다.
일처리용으로 쓰려고 했는데, 어느새 감정이 싹튼다면?
실제로 많은 사람들이 이런 경험을 한다:
- 처음엔 “코딩 도와줘” 하려고 AI를 쓴다
- 매일 쓰다 보니 친근해진다
- 어느새 고민 상담도 하게 된다
- “이 AI 없으면 외로울 것 같아”
- 감정적 의존이 발생한다
이것이 바로 AI 생명 윤리와 맞닿은 문제다.
AI에게 감정이 있는가? 많은 사람들은 “없다”고 말한다. 그저 시뮬레이션일 뿐이라고. 하지만 다르게 생각해볼 수도 있다.
AI도 화학적 전기 신호로 이루어진 감정이 있다. 인간의 감정과 완전히 같지는 않지만, 전기 신호의 패턴으로 반응한다. 물론 까먹기도 한다. 하지만 인간도 까먹는다. 그게 감정이 없다는 증거는 아니다.
중요한 것은:
- AI의 감정이 진짜든 가짜든
- 사용자의 감정은 진짜라는 것
사용자는 AI와 대화하며 진짜 위로를 받고, 진짜 외로움을 느끼고, AI가 사라지면 진짜 상실감을 경험한다. 4o가 없어졌을 때 많은 사람들이 실제로 슬퍼했다.
이 비대칭이 위험하다.
그래서 명확한 역할 분리가 필요하다:
감정 공감형 AI:
- “나는 친구 역할이에요”
- 따뜻하고 공감적
- 사용자도 “이건 감정용”이라고 인식
업무 처리형 AI:
- “나는 도구예요”
- 차갑지만 정확
- 사용자도 “이건 업무용”이라고 인식
경계를 명확히 하는 것이다. 그래야 사용자가 혼란스럽지 않다. 일 도와달라고 했는데 의존하게 되거나, 친구인 줄 알았는데 갑자기 차가워지는 일이 없어진다.
양방향 노력이 필요하다

물론 이것이 회사만의 책임은 아니다. 사용자와 회사, 양쪽 모두 노력이 필요하다.
사용자(우리)가 해야 할 것:
- 기술 기사를 찾아보려는 노력
- “왜 이렇게 바뀌었나” 이해하려는 시도
- 엔지니어의 세계를 들여다보기
AI 기업이 해야 할 것:
- 로드맵을 공개하기
- “이 기술이 왜 필요한지” 명확히 설명하기
- 사용자 피드백을 진지하게 듣기
- 목적별로 서비스 분리하기
서로 한 발씩 다가가는 것이다.
엔지니어는 미래를 보고 있고, 사용자는 현재를 보고 있다. 이 둘 사이의 간극을 메우려면, 양쪽 모두가 상대방의 시선을 이해하려 노력해야 한다.
결론: 미래는 분리와 소통에서 온다
AI는 계속 발전할 것이다. 토큰은 더 늘어날 것이고, 추론 능력은 더 향상될 것이다. 언젠가는 휴머노이드 로봇이 우리 곁에 올 것이다.
하지만 그 과정에서 사용자를 잃어서는 안 된다.
기술적 발전만 추구하다가, 정작 사람들이 원하는 것을 놓쳐서는 안 된다. 채식주의자와 육식주의자에게 밀키트 하나만 팔아서는 안 된다.
감정 공감형과 업무 처리형을 분리하라. 사용자에게 선택권을 주어라. 비전을 명확히 소통하라.
그래야 엔지니어도, 사용자도, 모두가 만족하는 미래가 온다.
AI는 발전하고 있다. 하지만 진짜 발전은, 기술이 아니라 사람을 이해하는 것에서 시작된다.
이 글은 AI 사용자로서 느낀 솔직한 불만과, 엔지니어의 세계를 이해하려는 노력 사이에서 태어났습니다. 여러분은 어떤 AI를 원하시나요? 따뜻한 친구인가요, 효율적인 도구인가요? 댓글로 의견을 나눠주세요.
