원문기사링크 : Affordances in the brain: The human superpower AI hasn’t mastered

이번 주 AI뉴스 스크랩
AI가 흉내 내지 못하는 인간의 직감에 대하여
우리 사람들에게는 무언갈 직관적으로 해석하는 능력이 있어요. 어떤 장소를 보면서 그곳에서 무엇을 할지 떠올리는 ‘직감’이 바로 그 능력인데요. 그동안의 모든 경험을 바탕으로 뇌가 자동으로 해석하는 능력입니다. 이 능력을 ‘어포던스(affordance)’라고 하는데 현재까지 AI의 어포던스는 인간의 능력에 비하면 한참 뒤쳐진다고 해요. 암스테르담 대학 연구진은 뇌 속에서 이런 판단이 어떻게 이뤄지는지 MRI로 관찰했고, 그 결과가 정말 놀라웠다고 합니다.
1. AI가 흉내내지 못하는 것
AI 뉴스 원문:
When we see a picture of an unfamiliar environment — a mountain path, a busy street, or a river — we immediately know how we could move around in it: walk, cycle, swim or not go any further…
The team discovered that certain areas in the visual cortex become active in a way that cannot be explained by visible objects in the image…
These brain areas not only represent what can be seen, but also what you can do with it…
Even if you do not consciously think about what you can do in an environment, your brain still registers it…
“Even the best AI models don’t give exactly the same answers as humans, even though it’s such a simple task for us,” Groen says…
“We connect our perception to our experience in a physical world. AI models can’t do that because they only exist in a computer.”
영어 뉴스 해석:
우리는 산길, 복잡한 거리, 강 같은 낯선 장소를 봐도 곧바로 “여긴 걸어야겠다” 또는 “수영을 해야겠다”는 식으로 어떠한 행동을 떠올릴 수 있어요. 연구팀은 뇌의 시각 영역 중 일부가 단순히 보이는 물체를 인식하는 것 뿐만이 아니라, ‘이 공간에서 할 수 있는 행동’까지 자동으로 판단한다는 걸 발견했어요.
참가자들은 사진을 보며 ‘걷기’, ‘자전거 타기’, ‘운전’, ‘수영’ 등의 행동이 가능한지 버튼을 눌렀고, 그때 뇌의 특정 부위가 활성화되었어요. 심지어 아무런 지시를 받지 않아도 뇌는 자동으로 판단하고 있었대요.
하지만 AI는 우리처럼 직관적으로 ‘행동 가능성’을 이해하지 못한다고 해요. 특히 이미지 인식 모델이나 GPT-4 같은 최신 AI들도 사람처럼 물리적 세계와 연결된 판단을 잘 해내지 못한다고 합니다.
쉽게 설명하자면!
아이랑 공원에 산책 나갔을 때를 떠올려 보세요.
아이가 “여기서 뛰어 놀아도 돼?” 하고 묻지 않아도, 본능적으로 우리는 길이 평평하면 뛸 수 있고, 물웅덩이는 피해가야 한다는 걸 알아요. 이건 우리의 뇌가 직감으로 인해 아주 빠르게 “이 공간에서 할 수 있는 행동”을 판단해 주기 때문이에요.
하지만 AI는 그렇지 않아요. 길을 봐도 그게 걷기 좋은지, 미끄러운지, 수영을 할 수 있는지 알 수 없어요. 컴퓨터는 우리처럼 실제 몸을 움직여본 물리적인 경험이 없기 때문이에요. 그래서 사람이 갖고 있는 이 ‘직관’, ‘어포던스(affordance)’는 아직까지도 AI가 따라잡지 못한 인간만의 능력이에요.
이 연구는 우리가 얼마나 똑똑하고 감각적인 뇌를 갖고 있는지 보여줘요. 동시에 AI가 우리를 더 잘 도우려면 어떤 방향으로 도움을 주어야 하는지도 동시에 시사해주고 있어요.
핵심 영어 표현 3가지:
- Affordance: (어포던스) 어떤 환경이 우리에게 제공하는 행동 가능성
- Visual cortex: 시각 피질, 뇌에서 시각 정보를 처리하는 부분
- Perception: 지각, 우리가 세상을 인식하고 해석하는 능력
용어 정리
용어: Affordance (어포던스)
정의: 어떤 사물이나 공간이 우리에게 “이걸 할 수 있어요!”라고 말해주는 가능성이에요. 예를 들어 의자를 보면 “앉을 수 있겠네”라고 느끼는 것처럼요.
실생활 예시: 엄마가 주방에 들어갔을 때, 조리대가 낮으면 ‘아이와 같이 쿠키를 구울 수 있겠네’ 하고 생각하게 되잖아요. 그런 생각이 바로 어포던스예요.
영어로 작문해보기:
- I see the bench and know I can sit on it.
- The stairs show me I can climb up.
- A big open field tells me I can run around freely.
생각해봅시다.
AI 기술이 계속 발전하는 지금, 인간만이 가진 직관적인 판단력은 더욱 중요해질 수 있어요. AI가 사람이 하는 대부분의 일을 대신하는 날이 오더라도, ‘직감’이나 ‘느낌’ 같은 인간적인 감각은 여전히 많은 면에서 필요할거에요.
아이를 키우면서 무의식적으로 내리는 판단들, 예를들어 ‘이건 위험하겠다거나 저건 괜찮겠다’ 판단하는 이 직관이 얼마나 대단한 능력인지 새삼 느꼈어요. 우리는 오랜 시간 몸으로 체득한 경험으로 수많은 판단을 하게 되기 때문에 AI가 이것을 터득하려면 아직은 멀었겠구나 싶었어요.
하지만 AI가 앞으로 인간의 뇌가 어포던스를 처리하는 방식을 더 잘 배우고 모방하게 된다면, “이 공간에서 무엇을 할 수 있을지” 판단하는 능력도 분명 더 나아질 수 있을거에요. 그렇게 되면 AI도 어포던스를 더 많이, 더 정확하게 가질 수 있겠죠.
하지만 인간의 어포던스는 단순히 시각으로부터 오는 정보 만으로 되는 것이 아니라, 몸으로 움직이고 경험해온 삶 전체가 반영된 판단이에요. 현재까지 AI는 물리적인 세계를 직접 경험하지 못한다는 전제로 인해, 인간과 같은 직감을 가지려면 완전히 새로운 방식의 학습이 필요할거에요. 로봇이 진짜로 몸을 가지고 움직이며 배우거나, 뇌 구조를 모방한 알고리즘을 써야겠죠. 그리고 실제로 휴머노이드 로봇을 통해 이러한 것을 현실적으로 가능하도록 만들어내고 있어요.
🌿 Cannylog
Cannylog는 AI를 배우는 육아맘의 시선으로 기술과 일상을 함께 나누는 공간입니다.
어렵게 느껴지는 인공지능도, 일상의 작은 순간들도 여기서 함께 이야기해요.
아래 카테고리에서 더 많은 이야기를 만나보세요!
카테고리 바로가기
- 🗞️ AI Daily
AI 뉴스 큐레이팅과 인사이트를 매일 한눈에! - 🌱 Growing Note
일상 속 깨달음, 독서, 배움의 기록을 담아요 - 📖 Study Note
AI 학사 과정을 따라가는 학습 여정 - 🧪 Test Log
감정 실험, AI 활용기, 심리 실험 등 삶의 실험 기록 - 🌿 Small Moment
나의 일상속 작은 조각 모음집, 사소한 일기장
About Author
전업주부 아니고, 가정경영 CEO!
컴퓨터 전공은 아니지만 만학도의 힘으로 타전공 도전, 호기심과 끈기로 AI의 세계를 탐험 중.
“복잡한 걸 간단하게 설명하는 게 진짜 이해하는 것”이라는 믿음을 가지고 있음.
넷플릭스보다 AI뉴스 보는 게 더 재밌어진 엄마.