매월 국내외 심리학 및 교육공학 논문과 심리학 신간도서 흐름을 함께 분석하며 어떤 연구가 왜 나왔는지 실제로 우리 삶과 어떤 관련이 있는지를 함께 살펴봅니다. (국내 kci에 등재된 저널과 해외 우수 저널의 논문만을 선별 - 심리치료, 인공지능(AI), 메타분석, 리뷰논문, 질적논문, 에듀테크 등)
2026년 1월, 상담 및 수사 면담 상황에서 인공지능(AI)의 실무적 효용성을 검증한 해외 주요 논문 2편이 발표되었습니다. 본 글은 이 연구들을 종합 분석하여, AI가 상담 현장에서 보여주는 가능성과 명확한 한계를 조망합니다. 두 연구를 관통하는 핵심 통찰은 AI가 '초기 라포 형성'과 '기술적 분석'에는 인간을 능가할 수 있으나, 맥락을 파악하여 깊이 있게 개입하는 '전략적 사고'와 '진정성'은 여전히 인간의 고유 영역이라는 점입니다.
본 연재는 권위있는 해외 연구를 선별하여, 복잡한 수치 대신 연구의 핵심 맥락과 심리학적 관점을 중심으로 알기 쉽게 해설합니다.
✔ 이 달의 핵심 요약
Communication Quantity: AI는 지속적인 격려를 통해 내담자(아동)의 발화량을 효과적으로 늘림
Technical Detection: 자살 위험 신호나 인지적 왜곡을 탐지하는 기술적 분석 능력은 탁월함
Depth Limitation: 개방형 질문의 전략적 구사나 깊이 있는 공감 능력은 인간보다 현저히 부족함
이번 달 소개하는 두 편의 논문은 아동 면담과 상담 교육이라는 각기 다른 분야를 다루고 있지만, 결론은 하나의 지점을 가리킨다. AI는 지치지 않는 격려와 데이터 기반의 분석으로 인간의 한계를 보완할 수 있지만, 복잡한 인간 심리를 다루는 '질적인 깊이'에서는 여전히 인간 전문가의 개입이 필수적이라는 것이다.
양적인 정보 수집 능력의 우위 (Quantity)
AI는 아동과의 면담에서 끊임없는 격려와 지지를 통해 아이들의 입을 여는 데 탁월한 성과를 보였다. 이는 AI가 초기 라포 형성이나 정보의 양을 확보해야 하는 단계에서 인간보다 더 효율적인 도구가 될 수 있음을 시사한다.
기술적 탐지 능력의 정교함 (Detection)
상담 교육 분야에서 AI는 내담자의 자살 위험 신호나 인지적 오류를 찾아내는 '조기 경보 시스템'으로서 뛰어난 능력을 입증했다. 초심 상담자가 놓칠 수 있는 패턴을 AI가 객관적으로 포착해 줌으로써 수퍼비전의 질을 높일 수 있다.
전략과 공감의 부재 (Limitation)
그러나 AI는 기억을 왜곡하지 않는 '개방형 질문'을 전략적으로 구사하거나, 내담자와 깊이 있는 정서적 유대를 맺는 데에는 실패했다. 기계적인 반응은 정보 수집에는 유리할지 모르나, 치유적 관계 형성에는 한계를 드러낸다.
Conclusion: 미래의 심리 서비스 모델은 'AI 대체'가 아닌, AI가 1차적인 정보 수집과 위험 탐지를 맡고 인간이 심층적인 정서 개입을 담당하는 '하이브리드 협업'으로 나아가야 한다.
PART 02논문 심층 해설 (총 2편)
PAPER 01Journal of Psychology and AI
인공지능이 아동을 인터뷰하면 더 많은 비밀을 털어놓을까? 대규모 언어 모델의 라포 형성 능력과 정보 수집 효율성에 관한 비교 연구
PAPER TITLE
Testing large language model capability in building rapport and interviewing children about a witnessed mock event
모의 사건을 목격한 아동을 대상으로 한 대규모 언어 모델의 라포 형성 및 인터뷰 능력 검증
PAPER REVIEW
아동 학대와 같은 사건에서 아동의 증언은 결정적인 증거가 되지만, 낯선 어른 앞에서 아이들이 입을 여는 것은 결코 쉬운 일이 아니다. 그래서 수사관들은 본격적인 질문에 앞서 아이와 신뢰 관계(라포)를 쌓는 데 공을 들인다. 이 연구는 바로 이 지점에서 'GPT-4 같은 인공지능이 인간보다 아이들의 말문을 더 잘 트게 할 수 있지 않을까?'라는 질문에서 시작되었다. 연구팀은 84명의 아동을 대상으로 두 가지 실험을 진행했다. 첫 번째 실험에서는 AI와 인간이 각자 자유롭게 아이들과 라포를 형성하게 했는데, 놀라운 결과가 나왔다. AI가 진행했을 때 아이들이 훨씬 더 많은 말을 했고, 이후 이어진 기억 테스트에서도 더 정확한 정보를 많이 제공했다. 아이들이 AI를 인간보다 더 좋아한 것은 아니었지만, AI가 끊임없이 건네는 '격려의 말'들이 아이들을 대화에 적극적으로 참여하게 만든 것이다. 하지만 두 번째 실험에서 AI에게 직접 사건에 대한 질문을 구성하게 했을 때는 한계가 드러났다. 훈련받은 인간 면담자들은 아이의 기억을 왜곡하지 않는 '개방형 질문'을 잘 구사한 반면, AI는 질문의 수가 적었고 권장되지 않는 방식의 질문을 섞어 쓰기도 했다. 물론 AI가 던진 질문 하나하나가 끌어낸 정보의 정확도는 꽤 높았지만, 사건의 핵심적인 세부 내용을 놓치거나 오류를 범하는 경우가 있었다. 또한 질문을 하는 주체가 실제 사람 모습이든 아바타든 큰 차이는 없었다. 이 연구가 주는 메시지는 명확하다. 현재의 AI는 단독으로 아동 수사 면담을 진행하기에는 위험 부담이 있지만, 인간 수사관이 놓칠 수 있는 '지속적인 격려'와 '절차 준수' 측면에서는 훌륭한 파트너가 될 수 있다는 점이다. 다만 이 실험은 실제 트라우마 상황이 아닌 모의 사건을 다뤘고 인터뷰 시간이 짧았다는 한계가 있으므로, 향후 실제 수사 현장에 적용하기 위해서는 AI가 중심 정보를 정확히 파악하고 윤리적인 질문을 던지도록 하는 정교한 하이브리드 접근법이 필요함을 시사한다.
AI가 예비 상담가의 수퍼바이저가 될 수 있을까? 상담 교육에서의 인공지능 활용 가능성과 한계
PAPER TITLE
Can AI train the next generation of counsellors? Ethical challenges and opportunities
AI가 차세대 상담가를 훈련시킬 수 있을까? 윤리적 도전과 기회
PAPER REVIEW
훌륭한 상담가를 길러내는 과정은 결코 쉽지 않다. 현재의 상담 교육은 훈련생의 능력을 평가할 때 수퍼바이저(지도 감독자)의 주관적인 판단에 크게 의존하는 경향이 있어, 평가의 일관성이 부족하거나 편향이 발생할 수 있다는 문제가 제기되어 왔다. 이 연구는 '과연 AI가 인간 수퍼바이저를 대신하거나 보완하여 더 객관적이고 일관된 피드백을 줄 수 있을까?'라는 질문을 던진다. 연구자는 챗GPT(ChatGPT)를 기반으로 상담 이론에 맞게 미세 조정된 'MyGPT'라는 시스템을 구축하고, 인간중심치료(PCT), 다원주의적 치료, 인지행동치료(CBT) 등 세 가지 주요 상담 기법을 적용한 모의 상담 축어록을 분석하게 했다. 그 결과는 매우 흥미롭다. AI는 내담자의 자살 위험 신호(Safeguarding)를 감지하거나, 인지행동치료에서 내담자의 비합리적인 사고 패턴(인지적 왜곡)을 찾아내는 데에는 탁월한 능력을 보였다. 이는 초심 상담자가 놓치기 쉬운 위험 신호를 AI가 '조기 경보 시스템'처럼 알려줄 수 있음을 시사한다. 그러나 한계점도 명확했다. AI는 상담자가 내담자의 감정에 깊이 있게 공감하거나 미묘한 비언어적 뉘앙스를 포착해야 하는 영역, 특히 인간중심치료에서 요구하는 '진정성 있는 관계 형성' 부분에서는 기계적이고 깊이가 부족한 피드백을 내놓기도 했다. 이 연구가 주는 핵심 메시지는 AI가 상담 교육의 효율성을 높이고 평가의 편차를 줄이는 강력한 도구가 될 수 있지만, 결코 인간 수퍼바이저를 완전히 대체할 수는 없다는 것이다. 오히려 AI는 기술적인 분석과 위험 감지를 담당하고, 인간 수퍼바이저는 복잡한 관계의 역동과 윤리적 맥락을 지도하는 '하이브리드 모델'이 미래 상담 교육의 대안이 될 수 있음을 제안한다. 물론 이를 위해서는 AI가 학습 데이터의 편향을 답습하지 않도록 하는 윤리적 거버넌스와 지속적인 검증이 필수적이다.
본 콘텐츠는 해외 우수 심리학 논문의 공개 정보를 바탕으로 르네의 심리통계에서 기획·편집한 요약·해설로 최신 심리학 연구의 소개와 학문·교육적 활용을 목적으로 합니다. 인용된 원 논문의 저작권은 각 논문 저자 및 발행 학술지에 있으며, 본문은 원 저작물을 대체하지 않는 2차적 정보 제공 자료입니다.
본 콘텐츠는 르네의 심리통계에서 제작하였으며 크리에이티브 커먼즈 저작자표시-비영리-변경금지 4.0 국제 라이선스(CC BY-NC-ND 4.0)에 따라 보호됩니다. 출처를 명시하면 비영리 목적에 한해 공유가 가능하며 내용의 수정 또는 영리적 활용은 허용되지 않습니다.
2026년 1월 해외 AI-심리학 논문
연구 동향
Journal of Psychology and AI
2026년 1월, 상담 및 수사 면담 상황에서 인공지능(AI)의 실무적 효용성을 검증한 해외 주요 논문 2편이 발표되었습니다. 본 글은 이 연구들을 종합 분석하여, AI가 상담 현장에서 보여주는 가능성과 명확한 한계를 조망합니다. 두 연구를 관통하는 핵심 통찰은 AI가 '초기 라포 형성'과 '기술적 분석'에는 인간을 능가할 수 있으나, 맥락을 파악하여 깊이 있게 개입하는 '전략적 사고'와 '진정성'은 여전히 인간의 고유 영역이라는 점입니다.
본 연재는 권위있는 해외 연구를 선별하여, 복잡한 수치 대신 연구의 핵심 맥락과 심리학적 관점을 중심으로 알기 쉽게 해설합니다.
✔ 이 달의 핵심 요약
PART 01 논문 종합 분석
"AI는 '완벽한 상담자'가 아닌 '유능한 조수'다"
이번 달 소개하는 두 편의 논문은 아동 면담과 상담 교육이라는 각기 다른 분야를 다루고 있지만, 결론은 하나의 지점을 가리킨다. AI는 지치지 않는 격려와 데이터 기반의 분석으로 인간의 한계를 보완할 수 있지만, 복잡한 인간 심리를 다루는 '질적인 깊이'에서는 여전히 인간 전문가의 개입이 필수적이라는 것이다.
양적인 정보 수집 능력의 우위 (Quantity)
AI는 아동과의 면담에서 끊임없는 격려와 지지를 통해 아이들의 입을 여는 데 탁월한 성과를 보였다. 이는 AI가 초기 라포 형성이나 정보의 양을 확보해야 하는 단계에서 인간보다 더 효율적인 도구가 될 수 있음을 시사한다.
기술적 탐지 능력의 정교함 (Detection)
상담 교육 분야에서 AI는 내담자의 자살 위험 신호나 인지적 오류를 찾아내는 '조기 경보 시스템'으로서 뛰어난 능력을 입증했다. 초심 상담자가 놓칠 수 있는 패턴을 AI가 객관적으로 포착해 줌으로써 수퍼비전의 질을 높일 수 있다.
전략과 공감의 부재 (Limitation)
그러나 AI는 기억을 왜곡하지 않는 '개방형 질문'을 전략적으로 구사하거나, 내담자와 깊이 있는 정서적 유대를 맺는 데에는 실패했다. 기계적인 반응은 정보 수집에는 유리할지 모르나, 치유적 관계 형성에는 한계를 드러낸다.
Conclusion: 미래의 심리 서비스 모델은 'AI 대체'가 아닌, AI가 1차적인 정보 수집과 위험 탐지를 맡고 인간이 심층적인 정서 개입을 담당하는 '하이브리드 협업'으로 나아가야 한다.
PART 02 논문 심층 해설 (총 2편)
인공지능이 아동을 인터뷰하면 더 많은 비밀을 털어놓을까?
대규모 언어 모델의 라포 형성 능력과 정보 수집 효율성에 관한 비교 연구
아동 학대와 같은 사건에서 아동의 증언은 결정적인 증거가 되지만, 낯선 어른 앞에서 아이들이 입을 여는 것은 결코 쉬운 일이 아니다. 그래서 수사관들은 본격적인 질문에 앞서 아이와 신뢰 관계(라포)를 쌓는 데 공을 들인다. 이 연구는 바로 이 지점에서 'GPT-4 같은 인공지능이 인간보다 아이들의 말문을 더 잘 트게 할 수 있지 않을까?'라는 질문에서 시작되었다. 연구팀은 84명의 아동을 대상으로 두 가지 실험을 진행했다. 첫 번째 실험에서는 AI와 인간이 각자 자유롭게 아이들과 라포를 형성하게 했는데, 놀라운 결과가 나왔다. AI가 진행했을 때 아이들이 훨씬 더 많은 말을 했고, 이후 이어진 기억 테스트에서도 더 정확한 정보를 많이 제공했다. 아이들이 AI를 인간보다 더 좋아한 것은 아니었지만, AI가 끊임없이 건네는 '격려의 말'들이 아이들을 대화에 적극적으로 참여하게 만든 것이다. 하지만 두 번째 실험에서 AI에게 직접 사건에 대한 질문을 구성하게 했을 때는 한계가 드러났다. 훈련받은 인간 면담자들은 아이의 기억을 왜곡하지 않는 '개방형 질문'을 잘 구사한 반면, AI는 질문의 수가 적었고 권장되지 않는 방식의 질문을 섞어 쓰기도 했다. 물론 AI가 던진 질문 하나하나가 끌어낸 정보의 정확도는 꽤 높았지만, 사건의 핵심적인 세부 내용을 놓치거나 오류를 범하는 경우가 있었다. 또한 질문을 하는 주체가 실제 사람 모습이든 아바타든 큰 차이는 없었다. 이 연구가 주는 메시지는 명확하다. 현재의 AI는 단독으로 아동 수사 면담을 진행하기에는 위험 부담이 있지만, 인간 수사관이 놓칠 수 있는 '지속적인 격려'와 '절차 준수' 측면에서는 훌륭한 파트너가 될 수 있다는 점이다. 다만 이 실험은 실제 트라우마 상황이 아닌 모의 사건을 다뤘고 인터뷰 시간이 짧았다는 한계가 있으므로, 향후 실제 수사 현장에 적용하기 위해서는 AI가 중심 정보를 정확히 파악하고 윤리적인 질문을 던지도록 하는 정교한 하이브리드 접근법이 필요함을 시사한다.
AI가 예비 상담가의 수퍼바이저가 될 수 있을까?
상담 교육에서의 인공지능 활용 가능성과 한계
훌륭한 상담가를 길러내는 과정은 결코 쉽지 않다. 현재의 상담 교육은 훈련생의 능력을 평가할 때 수퍼바이저(지도 감독자)의 주관적인 판단에 크게 의존하는 경향이 있어, 평가의 일관성이 부족하거나 편향이 발생할 수 있다는 문제가 제기되어 왔다. 이 연구는 '과연 AI가 인간 수퍼바이저를 대신하거나 보완하여 더 객관적이고 일관된 피드백을 줄 수 있을까?'라는 질문을 던진다. 연구자는 챗GPT(ChatGPT)를 기반으로 상담 이론에 맞게 미세 조정된 'MyGPT'라는 시스템을 구축하고, 인간중심치료(PCT), 다원주의적 치료, 인지행동치료(CBT) 등 세 가지 주요 상담 기법을 적용한 모의 상담 축어록을 분석하게 했다. 그 결과는 매우 흥미롭다. AI는 내담자의 자살 위험 신호(Safeguarding)를 감지하거나, 인지행동치료에서 내담자의 비합리적인 사고 패턴(인지적 왜곡)을 찾아내는 데에는 탁월한 능력을 보였다. 이는 초심 상담자가 놓치기 쉬운 위험 신호를 AI가 '조기 경보 시스템'처럼 알려줄 수 있음을 시사한다. 그러나 한계점도 명확했다. AI는 상담자가 내담자의 감정에 깊이 있게 공감하거나 미묘한 비언어적 뉘앙스를 포착해야 하는 영역, 특히 인간중심치료에서 요구하는 '진정성 있는 관계 형성' 부분에서는 기계적이고 깊이가 부족한 피드백을 내놓기도 했다. 이 연구가 주는 핵심 메시지는 AI가 상담 교육의 효율성을 높이고 평가의 편차를 줄이는 강력한 도구가 될 수 있지만, 결코 인간 수퍼바이저를 완전히 대체할 수는 없다는 것이다. 오히려 AI는 기술적인 분석과 위험 감지를 담당하고, 인간 수퍼바이저는 복잡한 관계의 역동과 윤리적 맥락을 지도하는 '하이브리드 모델'이 미래 상담 교육의 대안이 될 수 있음을 제안한다. 물론 이를 위해서는 AI가 학습 데이터의 편향을 답습하지 않도록 하는 윤리적 거버넌스와 지속적인 검증이 필수적이다.
PART 03 논문 제목 리스트
PART 04 참고문헌
ⓒ 르네의 심리통계 (jamovi.ai)
본 콘텐츠는 해외 우수 심리학 논문의 공개 정보를 바탕으로 르네의 심리통계에서 기획·편집한 요약·해설로 최신 심리학 연구의 소개와 학문·교육적 활용을 목적으로 합니다.
인용된 원 논문의 저작권은 각 논문 저자 및 발행 학술지에 있으며, 본문은 원 저작물을 대체하지 않는 2차적 정보 제공 자료입니다.
본 콘텐츠는 르네의 심리통계에서 제작하였으며 크리에이티브 커먼즈 저작자표시-비영리-변경금지 4.0 국제 라이선스(CC BY-NC-ND 4.0)에 따라 보호됩니다.
출처를 명시하면 비영리 목적에 한해 공유가 가능하며 내용의 수정 또는 영리적 활용은 허용되지 않습니다.