DefMoN: Reading the Hidden Defenses in Language — Why It Matters for Our Future
DefMoN: 언어 속에 숨은 방어기제를 읽다 — 그것이 우리의 미래에 중요한 이유
(This essay is provided in both English and Korean / 본 글은 영어와 한국어로 제공됩니다)
1. The Beginning — Long Ago, a Seed Was Planted
Long ago, before affective AI became a buzzword, I became fascinated with a simple question:
“When we speak, what lies beneath the words we choose?”
I noticed that people often say “I’m fine” not because they are fine, but because they are defending themselves. Some deny sadness, some project anger, others rationalize fear. Beneath the surface, language carries both a defense mechanism (how I cope) and an affective motivation (what drives me).
This seed eventually grew into my early project, DMN — Defensive Motivational Nodes. It was a small corpus, only 300 utterances across multiple languages, but it showed something profound: machines could learn to see not just tone, but the defensive posture shaping that tone.
2. The Limitations — Why I Had to Go Further
That early DMN was like a sketch. It showed promise, but it was fragile.
The dataset was too small to generalize.
Models focused only on surface emotion labels.
Psychological depth was flattened into shallow categories.
It felt as if we were measuring blood pressure while ignoring the patient’s story — useful, but incomplete.
So I asked myself: “How do I ensure that psychological theory isn’t just decoration after the fact, but the actual engine of generation?”
3. The Transition — From DMN to DefMoN
That question led me to redesign everything. I renamed the framework DefMoN, to avoid confusion with the neuroscientific “Default Mode Network,” but also to mark a new beginning.
Theoretical grounding: Vaillant’s hierarchy of defenses and Plutchik’s emotions became a structured coordinate system: Defense × Motivation.
Guardrails in generation: Instead of unconstrained AI synthesis, I fixed seeds, built templates, set scenarios, and introduced validators. This ensured every utterance was theory-consistent and reproducible.
Empirical validation: Even with limited data, training multilingual transformers on DefMoN yielded high performance and strong cross-lingual transfer, revealing the universality of defensive patterns across languages.
DefMoN wasn’t just an annotation project anymore — it became a psychologically grounded generative framework.
4. A Metaphor for Understanding
DefMoN is like an MRI for language. Outwardly, someone may say “I’m okay,” but DefMoN reveals the hidden defense and underlying emotion — denial of sadness, displacement of anger, rationalization of fear.
It is also like a compass. It doesn’t just tell you what someone feels, but why that feeling is expressed in that way, and how it might shift if understood differently.
5. Why It Matters in Daily Life
For human empathy: We learn not to take words at face value, but to listen for the emotional strategies behind them.
For AI interaction: A chatbot or assistant equipped with DefMoN can respond more safely, with less risk of mislabeling or stigmatization.
For cross-cultural understanding: Because defenses are universal, DefMoN helps us see how emotions translate across languages and contexts.
6. Why Now
Today, so much of our communication flows through AI systems. If they only recognize surface emotion, they risk misinterpretation, bias, and harm.
DefMoN offers a middle path: small, theory-dense, reproducible corpora that help AI learn to respect the hidden dimensions of human speech.
7. Looking Ahead
I see DefMoN as a seed that will grow into:
Therapeutic support AI — not diagnosing, but listening with empathy.
Training tools — helping educators, mediators, and counselors understand hidden defenses in dialogue.
Cross-cultural affective research — showing how humans everywhere share similar strategies of coping.
8. Closing
The early DMN was a sketch.
DefMoN is the first architecture that paints the full picture.
It’s not about making AI more “human-like.” It’s about ensuring AI honors the human complexities embedded in our words.
🔗 Ryan Research Institute Website
📄 Full Paper (Zenodo DOI 10.5281/zenodo.17112915)
DefMoN: 언어 속에 숨은 방어기제를 읽다
— 그것이 우리의 미래에 중요한 이유
1. 시작 — 오래전의 작은 씨앗
오래전, 감정 AI가 화제가 되기 전부터 제 머릿속엔 단순한 질문이 있었습니다.
“사람이 말을 할 때, 그 말 뒤에는 무엇이 숨어 있을까?”
우리는 종종 “괜찮아”라고 말하지만, 실제로는 괜찮지 않은 경우가 많습니다. 어떤 이는 슬픔을 부정하고, 또 다른 이는 분노를 투사하며, 누군가는 두려움을 합리화합니다. 언어에는 늘 두 가지 층위가 숨어 있습니다.
방어기제(내가 대처하는 방식)
정서 동기(나를 움직이는 힘)
이 아이디어는 DMN — 방어 동기 노드라는 초기 프로젝트로 이어졌습니다. 불과 300문장짜리 작은 코퍼스였지만, 단순한 감정 라벨링을 넘어 방어적 태도까지 인식할 수 있음을 보여주었습니다.
2. 한계 — 왜 더 깊어져야 했는가
그러나 곧 한계가 드러났습니다.
데이터가 너무 작아 일반화가 어렵고,
기존 모델은 겉으로 드러난 감정만 인식했으며,
심리학적 개념은 단순 태그로 축소되었습니다.
마치 의사가 환자의 이야기는 듣지 않고 혈압 수치만 보고 진단하려는 것과 같았습니다.
저는 질문을 던졌습니다.
“심리학 이론을 단순한 해석이 아니라, 생성의 원리로 삼으려면 어떻게 해야 할까?”
3. 전환 — DMN에서 DefMoN으로
이 질문은 근본적 변화를 불러왔습니다. 저는 이름을 DefMoN으로 바꿨습니다. 신경과학의 “Default Mode Network”와 혼동을 피하기 위해서이기도 했지만, 무엇보다 새로운 출발을 의미했습니다.
이론의 수학화: 바이옌트의 방어기제 계층과 플러칙의 정서를 하나의 좌표계로 정리했습니다. 이제 문장은 방어 × 정서라는 노드로 표현됩니다.
생성 가드레일: 무작위 합성이 아니라, 시드 고정·템플릿·시나리오·검증자를 도입해 모든 문장이 이론적으로 일관되게 생성되도록 했습니다.
실험 검증: 제한적 데이터로 학습했음에도, 다국어 모델이 높은 성능을 보였고, 언어 간 전이에서도 보편적 패턴을 드러냈습니다.
DefMoN은 더 이상 단순한 주석 작업이 아니라, 심리학적 기반을 갖춘 생성 프레임워크가 되었습니다.
4. 비유로 이해하기
DefMoN은 언어의 MRI와 같습니다.
겉으로는 “괜찮아”라고 웃지만, MRI를 찍어보듯 들여다보면 슬픔을 부정하는 방어나 분노의 전치가 드러납니다.
또한 DefMoN은 나침반과 같습니다.
단순히 “슬프다/화났다”를 넘어서, “왜 그렇게 표현했는가, 어떤 맥락에서 나온가”를 알려줍니다.
5. 우리의 일상에서
공감 능력: 친구의 “괜찮아” 뒤에 방어가 숨어 있을 수 있음을 알면, 우리는 더 세심하게 반응할 수 있습니다.
AI와의 대화: 단순 감정 라벨링이 아니라 방어기제까지 고려하는 AI는 낙인 없는 안전한 응답을 할 수 있습니다.
문화적 다리: 한국어, 영어, 프랑스어, 조지어 등 여러 언어에 적용 가능하다는 점에서 보편적 정서 이해를 촉진합니다.
6. 지금 왜 필요한가
오늘날 우리의 대화 상당수는 AI와 이루어집니다. 만약 AI가 방어의 층위를 보지 못한다면, 우리의 말은 왜곡되거나 잘못 해석될 위험이 있습니다.
DefMoN은 그 위험을 줄이고, 언어 속 인간적 맥락을 존중하는 길을 제시합니다.
7. 앞으로의 가능성
공감적 상담 AI
교육·리더십 훈련 도구
문화 간 정서 연구
DefMoN은 이제 막 시작된 씨앗이지만, 앞으로 다양한 영역으로 뻗어갈 수 있습니다.
8. 맺으며
초기 DMN은 스케치에 불과했습니다.
DefMoN은 그 스케치를 완성된 그림으로 확장한 첫 걸음입니다.
이것은 AI를 인간답게 만드는 기술이 아니라, AI가 인간을 더 깊이 존중하도록 돕는 언어학적·심리학적 도구입니다.


Dear Professor
Let me few more time to read carefully your publication. I'll come back as soon as possible.
Warm regards
Cecile Pope