원문기사 : ‘It cannot provide nuance’: UK experts warn AI therapy chatbots are not safe
이번 주 AI뉴스 스크랩
AI가 심리 상담사 역할을 할 수 있을까요?
이전 기사에서도 다뤘듯이, AI와의 관계에 대해서 감정적인 부분을 나누는 것을 이야기해보았는데요. 이번엔 좀더 깊이 생각해 볼 수 있는 기사를 가지고 와봤습니다.
메타(Meta)의 CEO 마크 저커버그는 AI가 이러한 역할을 할 수 있다고 생각합니다. 하지만 영국의 심리 전문가들은 이에 대해 깊은 우려를 표하고 있습니다. AI가 인간의 감정을 완전히 이해할 수 있을지, 그리고 그로 인해 생길 수 있는 위험성은 없는지에 대한 논의가 필요해 보이네요.

1. AI 심리 상담 챗봇, 과연 안전할까?
원문 발췌:
“I think AI is not at the level where it can provide nuance and it might actually suggest courses of action that are totally inappropriate,” said Prof Dame Til Wykes, head of mental health and psychological sciences at King’s College London. She emphasized that while AI tools like chatbots are becoming more common, they still lack the ability to fully grasp the subtle emotional cues that human therapists naturally understand. Wykes pointed to the example of an eating disorder chatbot that had to be pulled from the market in 2023 after it gave potentially harmful advice to vulnerable users.
“One of the reasons you have friends is that you share personal things with each other and you talk them through. It’s part of an alliance, a connection. And if you use AI for those sorts of purposes, will it not interfere with that relationship?” she added, highlighting the potential for AI to disrupt human connections.
한국어 해석:
“AI는 아직 복잡한 감정의 뉘앙스를 이해할 수 있는 수준이 아니며, 때로는 완전히 부적절한 조언을 제시할 수도 있습니다.”라고 킹스 칼리지 런던의 틸 와이크스 교수는 설명했습니다. 와이크스 교수는 AI 챗봇이 점점 더 널리 사용되고 있지만 인간 상담사가 감지할 수 있는 미묘한 정서적 신호를 완전히 파악하는 데는 여전히 한계가 있다고 강조했습니다. 그녀는 2023년에 출시된 식이장애 챗봇의 사례를 언급하며, 이 챗봇이 취약한 사용자들에게 잠재적으로 해로운 조언을 제공하여 결국 시장에서 철수하게 되었다고 지적했습니다.
“사람들이 친구와의 관계를 유지하는 이유 중 하나는 서로의 개인적인 이야기를 나누고 함께 고민을 해결하기 위해서입니다. 이는 일종의 동맹이자 연결의 일부입니다. 그런데 이러한 역할을 AI가 대신하게 되면 인간 관계에 혼란을 초래하지 않을까요?”라며 인간 관계에 미칠 영향에 대한 우려도 덧붙였습니다.
쉽게 설명하자면!
최근 마크 저커버그는 “모두가 상담사가 필요하다면, 그 역할을 AI가 할 수 있다”고 주장했습니다. 메타의 AI는 연인 문제, 직장 상사와의 갈등, 친구 관계 고민 등을 함께 이야기해줄 수 있다는 것이 그의 생각입니다.
반면 심리 전문가들은 이와 같은 접근에 대해 걱정스러운 의견을 제시하고 있습니다. 예를 들어, 2023년에 출시된 식이장애 챗봇이 위험한 조언을 제공하여 결국 서비스가 중단된 사례가 있었습니다. 섭식장애로 환자를 위해 상담을 해주는 챗봇이 도리어 과도한 다이어트를 조장해 논란이 되었던 사례인데요.(뉴스기사 보러가기) 실제 상담사는 대화를 통해 사람의 복잡한 감정과 미묘한 신호를 파악하지만, AI는 이러한 뉘앙스를 완벽히 이해하지 못할 수 있습니다. 이 때문에 잘못된 조언으로 하여금 오히려 더 큰 문제를 일으킬 수 있다는 것이 전문가들의 의견입니다.
현재의 기술을 바탕으로는 AI가 완벽한 상담사의 역할을 대체해줄 수 없다는 것이 학계의 공통적인 입장인것이 사실이기도 하죠. 몇 차례의 혁명의 시간들을 거쳐 이미 많은 인간의 역할을 기계가 대신하기 시작하면서 그 과도기에는 늘 혼란스러운 순간들이 존재해왔기에 우리는 이 과도기를 어김없이 지나가야 하겠죠. 또 한편 이 기술로 인해 우리의 인간관계는 어떤 변화를 맞이할지 궁금하기도 하네요.
핵심 영어 표현 3가지:
- Nuance: 뉘앙스, 미세한 차이
- Inappropriate: 부적절한
- Oversight: 감독, 감시
이번 주 AI 용어
용어: Nuance (뉘앙스)
정의: 사소하지만 중요한 의미나 차이, 어떤 표현이나 행동의 미세한 차이점
실생활 예시: 친구가 힘든 일을 겪었을 때 단순히 “괜찮아”라고 하는 것과 진심을 담아 “많이 힘들었지?”라고 물어보는 것의 차이
영어로 작문해보기 :
- She has a great sense of nuance when talking to others.
- Understanding nuance is important in building strong relationships.
- The meaning of his words changed depending on the nuance of his tone.
생각해봅시다.
AI가 상담사 역할을 할 수 있다면 우리는 어떤 점을 조심해야 할까요?
그리고 AI가 우리의 감정을 완벽히 이해할 수 있는 날이 온다면, 인간 관계는 어떻게 변하게 될까요?
AI가 심리적인 부분에서도 큰 역할을 할 수 있다는 가능성을 참 많이 접하게 됩니다.
저 역시 마찬가지로 AI챗봇을 활용해서 다양한 방면으로 심리적인 부분을 이해하려고 노력합니다. 예를 들어 내 자녀를 양육하기 위해 아이의 기질을 파악하고, 저의 성향을 분석하는 것은 분명 도움이 되는 일이기도 하죠. 실제로 많은 부분 개선이 되기도 했습니다.
하지만 그만큼 신중하고 철저한 관리가 필요하다는 점도 생각하게 되었습니다. 인공지능의 발달은 언제나 보안과 개인정보에 대한 유출 우려가 꼬리표처럼 따라오기도 합니다. 늘 조심해야하는 부분이죠.
이 기사를 보고 여러분은 어떤 생각이 드셨나요?
구독해보세요!
AI 뉴스 다이제스트는 매주 AI뉴스 기사를 선정하여 AI트렌드와 인사이트를 전합니다.
어렵게만 느껴지는 AI용어와 트렌드를 쉽고 재미있게 접해보세요!
태그: #육아맘AI #AI공부 #AI 뉴스 다이제스트 #AI트렌드 #AI상담 #심리챗봇 #AI안전성
About Author
전업주부 아니고, 가정경영 CEO!
컴퓨터 전공은 아니지만 만학도의 힘으로 타전공 도전, 호기심과 끈기로 AI의 세계를 탐험 중.
“복잡한 걸 간단하게 설명하는 게 진짜 이해하는 것”이라는 믿음을 가지고 있음.
넷플릭스보다 AI 뉴스 보는 게 더 재밌어진 엄마.
Contact
이메일: cannyslog@gmail.com
인스타그램: @kimkiwee