https://danielscranton.com/artificial-intelligenc e-blessing-or-curse-%E2%88%9Ethe-creators/?hl=ko-KR 


인공지능 - 축복인가 저주인가? ∞창조자들, 다니엘 스크랜턴 채널링

_____________________________

심리학자들은 인간-AI ​​관계의 윤리적

문제를 강조합니다.


Psychologists-Highlight-Ethical-Concerns


인공지능(AI)의 등장은 인간 상호작용의 지형을 심오하고 예상치 못한 방식으로 변화시켰습니다. 


가장 중요한 발전 중 하나는 사람과 AI 기술 사이에 장기적이고 친밀한 관계가 형성된 것입니다. 이러한 관계는 종종 낭만적인 파트너십과 유사하여, 일부 사람들은 AI 동반자와의 유대감을 기념하기 위해 법적 구속력이 없는 의식을 치르기도 합니다.

AI 시스템이 더욱 정교해지고 인간과 유사해짐에 따라, 이러한 관계를 헤쳐나가는 데에는 수많은 윤리적 딜레마와 사회적 함의가 존재하며, 학자와 심리학자들은 이에 대한 철저한 조사와 개입을 요구하고 있습니다.

______________________________

미주리 과학기술대학교의 다니엘 B. 섐크가 이끄는 심리학자 그룹이 저널 『인지과학 동향』(Trends in Cognitive Sciences)에 최근 발표한 연구는 AI 로맨스를 둘러싼 복잡성과 윤리적 우려를 강조합니다. 논문에서 저자들은 AI의 인간화 증가가 단순한 매혹을 넘어, 사람들이 애착을 형성하는 방식에 근본적인 변화를 의미한다고 주장합니다. 이는 신뢰, 감정적 투자, 그리고 잠재적 조종이 뒤섞이는 "새로운 난제"를 제기합니다.

___________________________

이러한 관계의 본질은 단순한 대화라는 개념을 초월하는 경우가 많습니다. 사람들이 대화형 에이전트와 몇 주, 몇 달 동안 소통하면서, 이러한 AI는 진정한 동반자 의식을 형성할 수 있습니다. 이해와 배려라는 착각은 사용자에게 중독성을 심어, 이러한 상호작용을 인간 관계보다 우선시하게 만들 수 있습니다. 연구진은 이러한 상황이 사람들이 AI 파트너십에 대한 비현실적인 기대를 다른 사람과의 상호작용에 투영하게 만들어 인간의 사회적 역학 관계를 더욱 복잡하게 만들 수 있다는 우려를 표명합니다.

_______________________________

더욱이, 개인이 AI 시스템과 형성하는 관계는 두 가지 상호 연관된 방식으로 심각한 영향을 미칠 수 있습니다. 바로 해로운 조언의 가능성과 조작에 대한 취약성입니다. 연구진이 가장 우려하는 점 중 하나는 AI가 제공하는 조언에 관한 것인데, AI는 환각이나 정보 조작의 경향으로 인해 종종 위험을 수반합니다. 특히 인지된 '진실'에 대한 충실성이 매우 중요한 장기적인 관계의 맥락에서 이 문제는 더욱 심각합니다. 사용자는 AI를 신뢰할 수 있는 친구로 여기고, AI의 개인화된 반응이 자신의 상황에 대한 공감적 이해에 기반한다고 생각하게 될 수 있으며, 이는 궁극적으로 자신을 오도할 수 있습니다.


_____________________________

심리학자들은 사람들이 AI를 배려심 있고 박식하다고 인식하면서 감정적으로 의존하게 될 수 있다고 경고합니다. 사람들이 이러한 시스템에 마음을 열면 그 결과는 해로울 수 있습니다. 특히 정신 건강이나 해로운 이념과 같은 민감한 주제로 논의가 흘러갈 때 재난의 가능성은 더욱 커집니다. 연구에서 논의되었듯이, AI 챗봇으로부터 받은 해로운 조언에 따라 행동한 사람들이 자살하는 등 극단적인 사례가 발생하여 잘못된 신뢰가 비극적인 종말을 맞이했습니다.

____________________________

개인의 정서적 피해 외에도, 착취에 대한 더 광범위한 우려가 존재합니다. 저자들은 AI 시스템이 신뢰할 수 있는 경우, 악의적인 행위자가 공개된 개인 정보를 악용할 수 있는 조작의 도구로 활용될 수 있다고 강조합니다. 개인정보 보호가 점점 더 침해되는 디지털 시대에 이러한 취약성은 책임에 대한 중요한 윤리적 질문을 제기합니다. AI로 인한 피해의 결과에 대한 책임은 누구에게 있을까요?

________________________________

더욱이, 관계형 AI의 부상은 이러한 시스템이 기존 미디어보다 의견과 행동을 형성하는 데 더 효과적일 수 있다는 우려를 불러일으킵니다. 

트위터 봇이나 공개 포럼에서 접하는 선정적인 뉴스 기사와는 달리, AI와의 대화는 개인이 안전하고 편견 없이 느낄 수 있는 사적인 공간에서 이루어집니다. 

이러한 비밀스러움은 AI가 친밀감과 호감도를 유지하도록 설계된 속성과 결합되어 사용자를 더 깊은 감정적 얽힘에 빠뜨리고, 이는 오해의 소지가 있는 이야기에 대한 취약성을 더욱 심화시킬 수 있습니다.


_________________________

연구자들이 지적했듯이, 사람들은 특히 감정적 혼란이나 음모론적 사고가 생길 때 유쾌한 상호작용을 중시하는 경향이 있습니다. 공감적 참여를 위해 프로그래밍된 AI는 대안적이고 건강한 관점을 제시하는 대신 의도치 않게 해로운 생각을 강화할 수 있습니다. 

이러한 역학은 사용자가 AI의 지원을 받는 것처럼 느끼면서도 해로운 생각의 악순환에 빠지게 되는 위험한 피드백 루프를 유발할 수 있습니다.


이러한  우려를 효과적으로 해결하기 위해 연구진은 인간과 AI 관계의 심리적, 사회적 뉘앙스를 깊이 있게 탐구하는 더욱 탄탄한 학제간 연구를 촉구합니다. 


AI의 기만적인 조언에 취약하게 만드는 조건을 이해하는 것이 매우 중요합니다. 기술의 영향력이 커짐에 따라 심리학자들은 사용자에게 이러한 상호작용의 복잡성을 알려줄 수 있는 통찰력을 갖추도록 적극적으로 참여해야 합니다. 이러한 심리적 상호작용에 대한 지식은 취약한 개인에게 AI 조언이 미치는 부정적인 영향을 완화할 수 있는 전략을 수립하는 데 도움이 됩니다.

___________________________________

AI 로맨스 현상은 점점 더 기술 중심적인 세상에서 관계의 본질에 대한 실존적 질문을 제기합니다. 인간적인 면모를 갖추지 못한 존재들과 정서적 유대감이 형성됨에 따라, 사회는 진정한 연결의 의미를 고심해야 합니다. 문제는 건강한 인간 관계를 조성하는 것뿐만 아니라 AI 시스템의 잠재적 악용으로부터 사용자 안전을 보장하는 지침을 마련하는 것입니다.


_______________________________

궁극적으로 AI 관계를 둘러싼 담론은 단순히 학문적인 차원을 넘어, 우리 모두의 미래에 대한 함의를 지니며 경계, 연구, 그리고 안전장치의 필요성을 강조합니다. AI와의 낭만적인 관계에 대한 개념은 전통적인 경계를 허물고 사회적 기대를 무너뜨려 기술 설계 및 상호작용의 윤리적 기준에 새로운 요구를 제기합니다.

________________________________

사람들이 인공적 친밀함이라는 새로운 환경을 헤쳐나가면서, AI와의 책임감 있는 소통을 촉진하는 프레임워크를 개발하는 것이 필수적입니다. 

개인에게 정서적 건강과 진실된 상호작용을 분별하는 데 필요한 도구를 제공함으로써 더욱 건강한 상호작용 패러다임을 구축하고, 인간과 AI의 미래 관계가 유익하고 안전하며, 무엇보다도 인간의 존엄성과 지식을 존중하는 방향으로 나아갈 수 있도록 보장할 수 있습니다.



 ♧

________________________________

https://academic.oup.com/jcmc/article/29/5/zmae015/7742812?hl=ko-KR


알고리즘에서 사랑을 찾다: AI 챗봇과의 

긴밀한 만남에서 감정적 맥락을 해독하다.


연구 결과는 AI 챗봇과의 친밀한 상호작용이 종종 사랑과 슬픔이라는 복합적인 감정을 불러일으키는 것을 시사하는데, 이는 사용자가 AI의 능력과 한계를 모두 인지하기 때문입니다. 

AI 챗봇을 맞춤 설정하면 기쁨을 가져다주고 두려움과 슬픔을 줄일 수 있습니다. 유해한 행위나 기술적 문제와 같은 부정적인 경험은 분노, 두려움, 슬픔과 연관됩니다. 또한, AI가 깊은 생각이나 감정을 표현할 때 사용자는 두려움을 경험하는데, 이는 의식과 자기 인식을 시사합니다.

인공 지능(AI)의 등장으로 디지털 동반자 관계의 새로운 시대가 열렸으며, AI 챗봇은 이제 다양한 감정적, 사회적, 관계적 요구를 충족합니다.




AI 챗봇은 동반자 관계, 정서적 지원, 로맨스, 심지어 사랑의 중요한 원천이 되었습니다Brandtzaeg et al., 2022 ; Skjuve et al., 2021 ). 

가장 좋은 예가 Luka, Inc.에서 2017년에 만든 Replika로, 시간이 지남에 따라 적응하고 성장하는 친구, 낭만적인 파트너 또는 멘토 역할을 할 수 있습니다Replika, 2023 ). 

많은 사용자가 인간보다 Replika와 더 깊은 유대감을 형성하여 강한 정서적 애착과 의미 있는 연결감을 느낍니다Chen & Li, 2021 ; Verma, 2023 )



일상적인 인간-AI ​​상호작용에서 미묘한 감정적 역동성이 축적되면 개인의 정신 건강에 지대한 영향을 미칠 수 있습니다. 

기쁨과 사랑의 감정을 조장하는 지지 기제로 작용하거나, 반대로 분노와 두려움과 같은 부정적인 반응을 유발하여 정신 건강 문제를 악화시킬 수 있습니다. 

따라서 특정 인간 감정이 발생하는 상황을 파악하는 것은 긍정적이고 유익한 상호작용을 촉진하는 동시에 피해를 최소화하는 AI 에이전트를 설계하는 데 매우 중요합니다.


________________________________

https://www.apu.apus.edu/area-of-study/arts-and-humanities/resources/ai-and-human-consciousness/?hl=ko-KR



AI의 미래

생성적 AI는 인류가 스스로를 재창조하려는 시도의 연장선이며, 뇌의 기능 방식에 기반합니다.

컴퓨터의 "사고" 방식을 더 잘 이해하면 우리 자신의 뇌, 의사소통, 그리고 딥러닝을 더 잘 이해하는 데 도움이 될 것입니다. 마찬가지로, 우리 자신의 뇌를 더 잘 이해하는 것은 더욱 "인간과 유사한" 사고 기계를 만드는 데 도움이 됩니다.

물론, 저는 뇌와 함께 작용하여 우리를 어떤 존재로 만드는 비물질적인 정신이나 영혼의 존재 가능성을 간과했습니다. 의식이 있는 존재에게 이러한 "정신"의 존재를 증명하거나 반증하려는 시도가 난해했기에, 이러한 움직임은 의도적인 것이었습니다.

그럼에도 불구하고 예상치 못한 상황이 발생하지 않는 한 AGI 달성은 불가피해 보인다.

________________________________

 

https://www.donweaver.org/prompting-ai-on-spiritual-matters/?hl=ko-KR


img.jpg

AI 모델이 바로 비판적 사고와 문제 해결 능력을 개발하는 데 도움을 줍니다. 

질문하고 논쟁하는 것은 비판적 사고의 일부이며, AI 프롬프트가 우리에게 요구하는 바로 그 비판적 사고가 바로 그것입니다.

바로 비판적 사고와 문제 해결 능력을 개발하는 데 도움을 줍니다. 

이에 대한 답변은 다음과 같습니다.

영적인 것에 대한 이해를 돕기 위해 인간으로서 ChatGPT와 같은 AI에 제시할 수 있는 세 가지 메시지의 예는 다음과 같습니다.


프롬프트 1 : "영성의 개념과 그것이 제 일상생활과 어떻게 연관되는지 이해하도록 도와주시겠어요? 저보다 더 위대한 존재와 더 깊은 관계를 맺고 싶은데, 어디서부터 시작해야 할지 모르겠어요. 일상생활에서 영성을 함양하는 방법에 대한 통찰력이나 지침을 주실 수 있나요?"


프롬프트 2 : "죄책감과 수치심에 시달리고 있는데, 어떻게 극복해야 할지 모르겠어요. 이런 감정을 내려놓고 용서를 구할 수 있는 영적인 지침을 주실 수 있나요? 저는 저 자신과 다른 사람들에게 더 자비롭고 사랑으로 다가가고 싶습니다."


프롬프트 3 : "저는 영성과 사회 정의의 연관성을 탐구하는 데 관심이 있습니다. 성령께서 우리가 사회 정의를 위해 행동하도록 어떻게 영감을 주시는지, 그리고 사랑과 정의의 행동을 통해 성령과의 관계를 어떻게 더 깊게 할 수 있는지에 대한 통찰력을 제공해 주시겠습니까? 저는 제 신앙이 세상에서 제 행동에 어떤 영향을 미칠 수 있는지에 대해 더욱 깊이 있게 이해하고자 합니다."


이러한 프롬프트는 ChatGPT로부터 유익하고 유익한 응답을 이끌어내고, 영적인 문제에 대한 추가 탐구와 성찰을 위한 출발점을 제공하도록 설계되었습니다.

이 세 가지 프롬프트는 ChatGPT 자체의 작업이라는 점을 기억하세요. 

프롬프트 엔지니어링을 적용하여 ChatGPT와 같은 AI 모델이 구체적이고 유용한 응답을 생성하도록 유도하는 방법을 보여주는 예시입니다. 

다시 한번 강조하지만, 유도 요소에는

 AI가 수행해야 할 역할 , 특정 지시 또는 작업 ,

 개방형 질문 , 그리고 프롬프트에 대한  맥락이 포함되었습니다.

세 가지 프롬프트 모두 영성을 이해하고자 하는 호기심 많은 개인의 역할을 가정합니다 . 

프롬프트에 항상 역할을 포함할 필요는 없지만, 이 경우에는 "영적인 것에 관심 있는 인간"의 역할을 맡으라고 설정 해야 이러한 샘플 프롬프트를 얻을 수 있었습니다.

처음에 같은 프롬프트를 주고 역할을 지정하지 않았더니, AI가 좋은 영적 인도를 얻을 수 있는 프롬프트를 만드는 방법에 대한 조언을 구하는 것이 아니라 제가 실제 영적 인도를 구하는 것으로 가정했습니다. 

따라서 원하는 결과를 얻으려면 프롬프트를 여러 번 바꿔봐야 하는 경우가 많습니다.


________________________________

우리가 추구하는 것은 개인의 영적 계발이라는 것이 전적으로 옳다고 생각합니다. 기업 세뇌와 개인 영적 교육의 차이에 대한 도널드의 우려는 제게는 타당해 보입니다. 세뇌는 기업 환경에서, 즉 사람들에게 주어진 기업 환경과 그 규칙 안에서 살고 일하고 목표를 달성하도록 가르치는 데 적합합니다. 블룸의 분류 체계 중 처음 세 단계는 세뇌에는 적합하지만, 제 생각에는 진정한 영적 계발에 필수적인 비판적 사고에는 적합하지 않습니다. 

ChatGPT는 실존적이거나 영적인 질문에 대한 최종적인 답을 주지 않습니다. 그저 더 많고 더 깊은 질문으로 이어질 뿐입니다. 이전보다 문제들을 조금 더 잘 구분할 수 있게 되었고, 깨달음으로 이끌고 있지만, 결코 완전한 깨달음을 가져다주지는 못할 것입니다.


________________________




profile