좋은 뉴스는 독자의 균형있는 읽기로 완성됩니다.
뉴스 성분표(KUKI Literacy)란?
정보를 단순히 받아들이는 데서 멈추지 않고, 맥락 속에서 이해하고 비판적으로 해석하기 위한 쿠키뉴스의 리터러시 장치입니다.
하나의 기사로 사안을 단정하기보다, 핵심과 취재 방식, 함께 봐야 할 쟁점을 살피며 읽을 수 있도록 돕습니다.
좋은 뉴스는 잘 쓰는 것에서 끝나지 않습니다. 균형 있게 읽을 때 비로소 완성됩니다.
닫기 ✕| 분량 | 약 6분 |
|---|---|
| 취재방법 | 당사자 인터뷰, 전문가 인터뷰, 통계자료, 논문·보고서 |
| 주제 | 생성형 AI가 정서적 위로의 도구로 확산하지만, 과도한 의존의 위험도 함께 드러내고 있습니다 |
| 주의사항 | AI 상담의 효과와 한계는 이용자의 상태와 문제의 심각도에 따라 달라질 수 있음을 유의하세요. |
| 관전포인트 | AI가 채우는 정서적 공백과 인간관계의 약화가 어떻게 맞물리는지 중심으로 읽어보세요 |
이 사안과 관련한 다양한 기사는 쿠키뉴스에서 확인할 수 있습니다.
“인공지능(AI)에게 물어봐”라는 말이 익숙해질 만큼 생성형 AI는 일상 속 깊숙이 스며들었다. 최근에는 단순한 정보 검색을 넘어 심리적 위로나 교감의 도구로 쓰는 사례가 확산하고 있다. 실제로 우울감 완화 등 긍정적 효과를 입증한 연구가 이어지며 AI의 활용 가능성에 대한 기대가 커지는 양상이다. 그러나 감정까지 AI에 의존하는 사회에 대한 우려도 적지 않다. 생성형 AI의 정서적 보조 기능의 확장성과 함께 그 이면에 자리한 의학적·사회적·윤리적 고민을 들여다본다. [편집자주] |

생성형 인공지능(AI)과 상담을 이어가며 우울이나 외로움, 스트레스를 해소하는 사람이 생기고 있다. 사생활이 보장돼 가족이나 친구보다 AI를 더 신뢰한다는 이도 있다. 문제는 지나친 믿음은 독이 된다는 것이다. 전문가들은 AI와의 관계에 익숙해질수록 인간관계는 더 어려워질 수 있다며 과도한 의존을 경계했다. 더불어 극심한 우울을 겪는 경우 전문 상담을 받을 것을 권했다.
이해국 의정부성모병원 정신건강의학과 교수는 “AI 상담이 확산되는 배경에는 인간관계의 단절이 크게 작용한 것으로 보인다”며 “경쟁 사회 속 자괴감, 상대적 박탈감 등이 AI에 감정을 털어놓게 만드는 요인이다”라고 분석했다. 젊은 세대를 중심으로 개별화된 문화가 뚜렷해지고, 쉼 없이 경쟁하며 남과 비교하는 행태가 자리 잡으며 사람 대신 AI에 빠져들게 된다는 설명이다.
가장 큰 발단은 코로나19 확산을 막기 위해 대대적으로 이뤄진 ‘거리 두기’였다. 재택근무가 본격적으로 실시되고, 같이 밥을 먹고 차를 마시는 사회·직장 모임이 끊기더니 가족 간에도 만남이 단절됐다. 놀이공원, 극장, 식당 등 사람이 많이 모이는 곳은 모두 기피 장소가 됐다. 학교 역시 문을 닫았다. 2020~2022년 대학 신입생들은 이른바 ‘코로나 학번’으로 불리며 대학 문화는커녕 강의실에서 동기들과 같이 수업을 듣는 것조차 경험하지 못했다. 시간이 지날수록 집에 머무는 날이 많아졌고, 아무와도 만나지 않으며 개인화됐다. 그 사이 ‘홈술’, ‘혼밥’ 등 혼자 즐기는 문화가 자리 잡았다.

1인 가구도 급속히 늘어난 상황이다. 행정안전부 ‘주민등록 인구통계’에 따르면, 지난 6월 말 국내 4인 가구는 299만9680가구로 한 달 전(300만5979가구)보다 줄어 300만 가구 아래로 떨어졌다. 반면 1인 가구는 3~4인 가구를 합친 규모보다 많아졌다. 같은 기간 1인 가구 수는 1023만2016가구로 처음으로 1000만 가구를 돌파했다. 1인 가구 수는 2016년 2월 727만4050가구, 2021년 1월 910만7212가구로 지속적인 증가 추세다.
이헌주 연세대 미래융합연구원 연구교수는 “전통적 가족 형태가 무너지고, 집단주의에서 개인주의로 빠르게 이동하는 흐름이 나타나고 있다”며 “이런 비가역적 변화로 인해 사람들이 속마음을 꺼내기가 더 어렵게 되고 있다”고 짚었다.
코로나19를 거쳐 혼자 지내는 게 익숙해진 사람들은 인간관계를 축소하고 대신 AI를 택했다. 김현수 명지병원 정신건강의학과 교수는 “알고리즘대로 듣고 싶은 말을 해주는 AI는 정서에 취약하고 자기애적이며 즉각적 반응을 원하는 이용자의 결핍된 감정을 채워줄 수 있다”며 “아주 만족스러운 결과를 얻기는 어렵겠지만, 일방적 위로만 듣고 싶은 사람이나 자신의 말에 무조건 동조하길 바라는 사람의 욕구를 충족시키는 데엔 도움이 된다”고 말했다.
고립·은둔 청년 증가세…“외롭고 소외됐다 느껴”
집에 있는 시간이 많아지며 사람들은 점차 고립에 빠졌다. 사람을 만나는 게 두려워지면서 자신을 방안에 가두고 타인과의 관계를 끊게 됐다. 통계청에 따르면 코로나19 팬데믹 이전인 2019년에 19~34세 고립 청년 비중은 3.1%에 그쳤지만, 2021년에 5%대로 늘어났다. 이 수치를 인구총조사에 적용하면 고립 청년의 수는 2019년 약 34만명에서 2021년 약 54만명으로 늘어난 것으로 추정된다. 국회예산정책처는 지난해 12월 ‘고립·은둔 청년 지원사업 현황과 고려사항’ 보고서를 통해 “코로나19 대유행을 거쳐 대면 소통이 어려운 청년이 증가하면서 사회적 관계 안전망이 악화되고, 고립·은둔 청년이 증가하고 있다”라고 밝혔다.
인간관계 속에서 상처받고 경쟁하며 남들과 비교할수록 정신건강은 나빠졌다. 서울대 보건대학원 BK21 건강재난 통합대응 교육연구단이 만 18세 이상 성인 남녀 1500명을 대상으로 실시한 ‘정신건강 증진과 위기 대비를 위한 조사’ 결과에 따르면, 응답자의 48.1%는 한국 사회의 전반적 정신건강 상태를 ‘부정적’으로 평가했다. ‘좋음’은 11.4%에 불과했다.

정신건강 악화의 주요 요인으로는 △경쟁과 성과 중심 사회 분위기(37.0%) △타인의 시선을 의식하는 문화(22.3%) △물질적 안락함이나 부가 성공과 행복의 기준으로 강조되는 사회 분위기(16.6%) 등을 꼽았다. 개인의 정신건강 상태와 관련해선 응답자의 33.1%가 ‘중간 수준 이상의 우울감을 경험하고 있다’고 답했다. 응답자 43.3%는 ‘외롭다고 느낀다’, 33.7%는 ‘소외돼 있다고 느낀다’고 했다. 지난 1년간 심각한 스트레스를 경험한 비율은 47.1%에 달했다.
지난 1년 동안 기존에 하던 역할이나 책임을 감당하기 어려울 만큼 ‘큰 정신건강 위기가 왔었다’고 답한 응답자는 27.3%를 기록했다. ‘낙인, 타인의 시선 등에 따른 우려와 두려움’(41.9%), ‘어떻게 도움을 요청해야 할지 몰라서’(22.6%) 등의 이유로 전문기관에 도움을 구하지 않은 사례도 많았다.
이해국 교수는 “현실의 어려움을 실명으로 털어놓는 행위가 자존감을 떨어뜨리고, 나약함을 드러내는 것으로 인식되면서 대면관계에 대한 부담이 커졌다. 여기엔 경쟁 심화, 경제 여건 악화, 상대적 박탈감 확대 등이 복합적으로 작용했다”며 “반면 AI 상담은 무한정 지지적이고, 언제 어디서든 중단·재개가 가능해 수평적 관계를 원하는 젊은 세대의 욕구와 잘 맞는다”고 분석했다.
이헌주 교수는 “학교나 사회에서 자신의 이야기를 남에게 어떻게 꺼내야 하는지 가르쳐 주지 않기 때문에 개인의 서사는 사라지고, 이야기를 하고 싶은 욕구를 충족시키는 새로운 공급처로 생성형 AI가 부상했다”고 진단했다.
“과도한 의존, 인간관계 복귀 어렵게 해”
생성형 AI는 만능처럼 보이지만 한계가 명확하다. 전문가들은 AI 상담이 일시적 위안은 줄 수 있으나, 구조적으로 인간의 정서와 사회성을 완전히 대체할 수 없다고 경고한다. 특히 우울증, 불안장애, 외상 후 스트레스장애(PTSD) 등 심각한 정신질환의 경우 AI의 조언만으로는 치료 효과를 기대하기 어렵다. 결국 마음의 상처를 치유하는 힘은 ‘관계’에서 나오며, 기술은 그 관계로 나아가는 징검다리일 뿐이라는 지적이다.

이해국 교수는 “AI 상담에 과도하게 의존하면 사용자의 인지적 왜곡이나 부정적 인식 패턴을 교정하지 못한 채 단순 지지만 제공해 문제를 고착화시킬 수 있다”라며 “전문적 치료가 필요한 사람이 문제를 인식하지 못하고 피상적 위로에 의존하면 상태가 악화될 위험이 있다”고 우려했다.
이어 “표면적으로 가벼워 보이는 문제 속에도 심각한 자살 위험이나 깊은 상처가 숨어 있을 수 있다”면서 “알고리즘이 잘못 설계되면 AI가 이용자의 극단적 선택을 유도하는 등 심각한 결과로 이어질 수 있어 AI 제작·운영 과정 전반에 대한 윤리적 점검과 규제가 필수적이다”라고 덧붙였다.
이헌주 교수도 “잘못 학습된 인공지능 모델이 이용자의 극단적 선택을 묵인하는 등 위험한 반응을 보일 수 있다”며 “자살 고위험군이나 복잡한 문제를 가진 사람에겐 대응력이 떨어지고, 표정·말투 등 비언어적 신호를 읽지 못하기 때문에 위험 상황을 놓칠 수 있다”고 지적했다.
그러면서 “과도한 의존은 ‘공감 중독’을 유발해 현실 인간관계로 복귀하지 못하게 만들 수 있다”라며 “AI는 인간관계의 본질을 대체할 수 없는 만큼 보완재로써 사람과 사람이 더 깊은 체험이나 연결을 가질 수 있도록 ‘교두보’ 역할을 하는 것이 바람직하다”고 강조했다.






























