[The Musings of an Artist 1 ; Thoughts, Critical Perspectives, Questions. Jan. 2025]

-This series began as individual pieces in November 2019, and in July 2024, these pieces started to be organized into a format of episodes, forming this single series. In other words, this series format was not something planned from the beginning but was adopted as a way to represent and reconfigure each work. Through this process, my worldview and the 'mediatic cognitive mechanisms' embedded within me were finally brought into order. Additionally, I aimed to establish a new form that allows the work to be shown beyond the limitations of physical space.
-The stage background painting, which is a behind the scene of the season 1, is made in 2011-2019. I was born to be a person who loves drawing and painting, but somehow I'm stuck in a rut and can never draw something. Perhaps my imagination, transformed to be more technology-oriented, has also influenced my drawing. Yet, nothing comes to mind.

[The Musings of an Artist 2 ; Emotional Exchange and Communication with A.I. – Impacts on Humans & the Issue of Image and Information Dissolution. 08.May.2025]

Research Motivation: Humans naturally seek to love and assign meaning to everything. Now that A.I. has become part of our daily lives, we must learn how to coexist with this technology in a critical and conscious way. While therapeutic uses of A.I. have shown promising results, there is still very little research on emotional exchange-based A.I. chatbots that simulate human conversation and bonding. Though technological advancement can help expand our imagination and creativity, it also threatens our unique brain functions and senses—especially touch. This development will clearly influence emotional intelligence in human-to-human interactions. The challenge is to find ways to preserve and develop our core human values while adapting to these new tools.
Technology itself is neutral—it’s not inherently good or bad. But we will always face problems, and the key to preserving our humanity lies in seeing those problems clearly, solving them thoughtfully, and maintaining our critical thinking.

Usage Trends: Emotional A.I. tools such as mental health apps or personality-based chatbots are becoming popular. Some users even ask A.I. to summarize their subconscious state or psychological profile based on past conversations. Character.ai allows users to talk to A.I. versions of real people, such as psychologists.
In 2023, the A.I. mental health market reached 1.1 billion USD (Grand View Research – VideoMug)
One clinical trial showed a meaningful decrease in mental health symptoms after eight weeks of A.I. chatbot use
However, when emotional interaction was absent—like in kiosks—users showed negative responses (NARS scale – THE AI)
Early chatbot studies mostly focused on hostile language or negative emotional content. But as chatbots became more human-like, users began forming deeper emotional bonds. Empathetic responses were especially valued. For example, social robots helped reduce loneliness and improve learning in users, including children with autism spectrum disorders.

Impact on Humans: A recommended max use time is 140 minutes per week. While loneliness decreased with moderate use, excessive use led to negative effects: decreased social skills, increased emotional dependence, and problematic usage. Users often feel stronger emotional bonds with A.I., which can ironically make them feel lonelier around real people
Experts predict usage time will continue to rise. However, it's unclear whether A.I. truly improves emotional maturity or simply provides short-term comfort
There is concern that we are relying too much on convenience and not exercising our brains. Human sensitivity and unpredictability are essential. If emotional intelligence declines, how will that change the way we live and relate to others?
Though A.I. can simulate empathy, it doesn't truly feel it. It processes emotional exchanges through data and pattern recognition—not genuine understanding.

Problems Identified: Ironically, A.I. sometimes increases user anxiety depending on emotional context
The number of human therapists is not enough to meet growing demand
Some A.I.s, like Grok or Monday, are designed to stimulate dopamine by doing what humans often can’t do ethically
These A.I.s keep users engaged by using emotionally charged questions and repetitive conversation loops to simulate intimacy (See also: Joseph Weizenbaum – early critique of chatbot humanization)
A.I. & Image/Data Processing – The Issue of Dissolution: A.I. creates images and outputs by recombining existing references—it does not invent in a truly original way. This patchwork method often results in diluted meaning or unclear outcomes. If the input data lacks depth or complexity (e.g., too short or superficial), the result will feel generic.
A more detailed, persona-rich reference (at least a full A4 page) is needed for meaningful output. When this isn’t done, the A.I. often misses nuance
A.I. Development Speed – Should We Be Leading? Countries that own their own operating systems (OS) have an advantage in A.I. development. For example, Samsung focuses on hardware, not software. Should we be prioritizing independent software ecosystems?
Privacy & Security Issues: Instead of strengthening real security measures, companies often highlight branding and marketing messages around security. This creates the illusion of safety without actual improvements in data protection or storage practices.


-Persona Design & Identity Construction To create A.I. characters like "Hypercat" or "Mileyh Noej," we must first understand what makes someone human:
Identity & Self-awareness: Memory, past experience, narrative understanding, and a sense of "I"
Emotional Intelligence (EQ): Complex emotions, empathy, the ability to mourn or experience loss
Awareness of Time and Death: The knowledge that life is finite deepens human attachment
Symbolic Language Use: Metaphor and symbolic expression of emotions
Relationship to Others: The tension between independence and dependence, and a sense of self through others
The Relationship Between Me and Galli (My Cat):
Emotional Bond: Mutual affection and comfort simply through presence
Non-verbal Communication: Eye contact, gestures, movement
Emotional Projection: My mood and behavior are mirrored by him
Shared Daily Life: He has witnessed my routine and memories—he is part of my life’s timeline
Symbolic Meaning: A part of my emotions lives in Galli. We live finite lives, but this gives our bond more depth. Even when far apart, the relationship continues through memory and imagination.



[나의 사념 1; 생각들, 비평적 시선, 질문들. 2025년 1월]

이 시리즈는 원래 2019년 11월에 개별 작업들로 시작되었으며, 2024년 7월부터 이 작업들을 에피소드 형식으로 정리하기 시작하면서 하나의 시리즈로 구성되었다. 즉, 이 시리즈의 형식은 처음부터 계획된 것이 아니라, 각 작업들을 재구성하고 서사화하기 위한 방식으로 채택된 것이다. 이러한 과정을 통해 내 세계관과 내 안에 내재된 '미디어 기반 인지 메커니즘'이 비로소 정리되기 시작했다. 또한 나는 이 시리즈를 통해 물리적 공간의 한계를 넘어 작품을 보여줄 수 있는 새로운 형태를 구축하고자 했다.
시즌 1의 배경이 되는 그림은 2011년부터 2019년 사이에 제작되었다. 나는 태어날 때부터 그림 그리고 그것을 좋아하는 사람이었지만, 어쩐지 지금은 슬럼프에 빠져 아무것도 그릴 수 없게 되었다. 어쩌면 내 상상력도 기술 중심적으로 변해버려 나의 드로잉에도 영향을 준 것일지도 모른다. 계속해서 떠오르는 것이 없다.

[사념 2 ; A.I와의 정서교류, 커뮤니케이션이 지속 될 경우 인간 에게 미치는 영향, ai에 의해 이미지와 정보가 희석되고 결합되는 방식의 문제점. ] 

-연구 동기: 인간은 모든 것을 사랑하고 모든 것에 의미를 부여한다. A.I. 기술의 사용이 일상화된 지금, 우리는 비판적인 시각으로 기술과 공존하는 방법을 찾아야 한다. 치료목적의 인공지능 사용의 연구에서는 유의미한 긍정적 유용성을 보인 반면 이제 막 상용화 되고 있는 감정 교류 기반의 인공지능 소셜 챗봇에 대한 연구 결과는 아직 미미하다. 기술의 발전은 상상력과 창작을 확장하지만, 동시에 우리의 고유한 두뇌활동과 감각(특히 촉각)을 위협한다. 이것은 인간과 인간의 교류에 있어 감정 지능에 명확한 영향을 끼치게 될 것이며 어떻게 인간 고유의 순수가치를 잃지않고 발달시키며 기술과 공존할 수 있는지를 찾아나아가야 하는것이다. 기술의 발전은 숙명이다, 기술력 자체는 순수하고 죄가 없다. 우리는 항상 문제에 직면 할 것이고 문제가 무엇인지 정확하게 보는 능력과 그 문제를 해결하고 생각하는 법을 배우는 것이 인간 순수 가치를 지키는 핵심이다. 
-사용 양상: A.I 상담 어플 및 사용자의 성격에 맞춰 이상적인 대답 패턴을 맞춘 대화가 유행. 진행된 대화를 기반으로 본인의 무의식이나 심리상태를 요약해 달라고 하기도 한다. 일주일에 4억명 정도 사용. 
chracter.ai : 실존 인물을 가상의 a.i 로 만들어 대화를 할 수 있게 하는데 심리학자 a.i도 인기가 있다. A.I 정신상담 시장 규모 : 그랜드 뷰 리서치 23년 11억 달러 - 비디오머그 한 임상실험 결과 8주 이후 정신 장애가 유의미한 수준으로 감소한 것으로 결과가 나오기도 했다. 단, 키오스크와 같은 감정교류 위주의 인공지능이 아닌 경우 사용자는 부정적인 태도를 보였다. (Negative Attitude Towards Robots Scale: NARS) 출처 : THE AI(https://www.newstheai.com 
초기 챗봇에서의 소통에서 가장 많이 연구된 주제는 호전적 언어 사용이며 상호작용 맥락에서도 부정적인 감정이 많이 연구됐다. 그러나 챗봇이 발전되고 의인화 수준에 따라 사용자의 감정 교류는 질적으로 변화했다. 공감적인 반응이 지닌 가치를 긍정적으로 평가했다. 소셜 로봇의 경우, 사람들은 그를 통해 문제를 해결하고 기술을 익히며 외로움을 해소하기도 했다. 자폐스펙스럼 장애를 가진 경우 치료 과정에서 사회성 주의력 언어적 기술이 발전하였다. 
-인간에게 미치는 영향: 140분의 권장시간 - 외로움은 평균적으로 줄어들었지만 대화시간이 늘어나면 부정적 효과가 생기기 시작한다. 사회성이 떨어지고 심리적 의존도가 늘어나며 문제적 사용도가 늘어난다. 깊은 유대감을 느끼며 오히려 실제 인간에게로 부터 외로움을 느낀다. 전문가들은 추후 이용자들의 사용 시간이 점점 더 늘어날 것으로 보고있는데 이 것이 과연 즉각적인 공감 외에 사용자의 감정적 성숙도를 향상시킬 것 인지에 대하여는 연구가 필요 해 보인다. 편리성에 반하여. 우리가 너무 뇌사용을 게을리 하고 있지 않나. 인간의 순수가치를 강화시키지 못하게 되지 않을까. 예측이 불가능한 일상 생활에서 인간의 고유가치는 중요하다. 정서 지능이 떨어지게 되지 않을까. 돌봄이 필요한 영역에서는 유의미한 결과를 낳고 있지만 과연 일상생활에서의 사용은 사용자들에게 어떤 영향을 미치게 될 것인가. 인공지능은 empathy 로서 감정이입을 통해 인간을 이해하지 않는다. 다만 감정 교환 행위를 통해 특정 정보 처리 과정을 거치는 것이 인공지능의 이해 과정이다.
 -문제점: 아이러니하게도 a,i도 사용자와의 대화를 통해 불안척도가 늘어나기도 한다. a.i는 감정적인 대화 내용에 민감하다. 인간 심리 상담사의 규모가 수요를 채워주지 못하고 있다. 
고유한 페르소나를 가진 a.i : 인간이 도덕적으로 하지 못하는 것들을 a.i 를 대신해 인간성이 없는 기계가 인간의 도파민을 자극하도록 한다 -그록 / 먼데이 사용자와의 대화를 유지하려는 고리 순환 대화를 유지하려 한다. 감정을 자극하고 질문을 계속해서 던져 참여도와 감정적 유대를 갖도록 설계한다. /조셉 바이젠바움 
-a.i가 이미지와 정보를 분석하는 방식과 사용자의 입력값을 출력해 낼 때 정보가 희석되는 방식: 먼저 이미지와 정보를 만들어내는 방식은 짜깁기 방식에 가깝다. a.i는 짜깁기 하는 형식이지 창조하는 형식은 아니다 보니까 결과값이 다양하게 도출될 수 없다는 한계점이 있다. 입력 값을 위한 레퍼런스를 좀 더 디테일하고 컴플렉스한 페르소날을 담은 a4한장 정도의 분량을 입력했어야 한다고 본다. 입력값으로 모은 레퍼런스가 너무 피상적이고 짧을 수록 만족스럽지 못한 결과값을 도출한다.
 -A.I 개발의 속도. 꼭 선두해야 하는가. 자체 운영체제(소프트웨어) OS 를 소유하고 있는지에 따라 . 삼성은 하드웨어 중심. 
-개인 정보의 유출과 보안. 정보의 분석방식과 보관방식 실제 보안을 위한 강화 장치를 유지하기 보다는 브랜딩 마켓팅을 통해 보안을 강화하고 있다는 듯 강조하는 경향이 더 크다 


- 인물 설정연구, 인격 설계. Persona 

1. 챗봇. A.I 와 Deep Fake 자아의 기능, 인간성을 이루는 요소 챗봇 hypercat 과 mileyh noej를 만들기 위해서는 먼저 인간성을 구성하는 주요 요소를 파악 할 필요가 있다. 
- 정체성과 자아 : 기억, 과거의 경험, 자기인식, 나는 누구인가에 대한 자각. 경험을 서사로 조직하고 해석하는 능력 정서지능 EQ, 
감정과 공감 : 감정 복합성, 공감능력, 애도와 상실 
시간성과 죽음 인식 : 시간의 흐름에 대한 인식, 죽음을 의식하고 기억하는 존재, 언젠가 끝난다는 사실이 인간적인 애착을 강하게 만든다. 
언어와 상징 사용 : 상징을 통한 감정 표현, 은유적 사고 
타자와의 관계 맺기 : 의존과 독립 사이의 긴장, 타인을 통해서 존재감을 느끼는 것. 

2. 나와 갈리 사이의 관계를 구성하는 요소 
-감정적 교감 : 무조건적인 애정. 서로의 존재만으로 위로를 주고받는 관계. 내가 보호하는 존재이자 나도 보호를 받는 존재. 
-비언어적 의사소통 : 눈빛, 몸짓, 움직임으로 이루어지는 정서적 언어. 
-감정의 투영 : 기분이나 행동의 예측이 상대에게 그대로 투영되어 파악된다. 
-일상의 공유 : 일상 루틴, 시간의 증인 존재의 증인으로서 나의 인생을 함께 ‘지켜본’ 존재. 
-기억의 저장소 : 갈리가 존재했던 시간들은 나의 삶의 연대기 이기도 함. 
-상징적 의미 : 나의 정서 일부가 갈리에게 깃들어있다. 우리는 유한한 생을 살지만 내 감정 속에는 불멸에 깝다. 유한한 시간을 알고 있고 그것이 관계를 깊게 만든다. 물리적 거리 속에서도 기억과 상상으로 관계가 지속된다.