top of page
Search
Writer's pictureSang Lee

AI의 문제는 사람이다

AI의 문제는 사람이다

- 존 스톤스트리트/셰인 모리스 2024/05/07


1. 영어 오디오 및 원문 스크립트


2. 한국어 오디오 및 번역 스크립트

터미네이터, 매트릭스, 아이, 로봇, 어벤져스: 에이지 오브 울트론 등 악당 인공지능의 위험성을 예측한 영화는 셀 수 없이 많다. 이러한 디스토피아적 공상 과학 소설이 언젠가는 현실이 될 수도 있겠지만, 적어도 아직은 인공지능이 세상을 점령할 준비가 되어 있지는 않다.



최근 있었던 우스운 사례는 X의 AI봇 "그록(Grok)"이 NBA 플레이오프 '플레이인' 토너먼트에서 클레이 톰슨의 슛 난조를 요약했던 사건이다. 원래 실적이 좋았던 골든스테이트 워리어스는 새크라멘토 킹스와의 경기에서 0-10의 삼 점 슛으로 참패했다. 그록은 톰슨이 '벽돌을 던졌다'고 조롱하는 온라인 팬 콘텐츠를 보고, 톰슨이 실제 벽돌로 여러 사람의 집을 파손했다는 기사를 작성했다.



이 사건을 다룬 USA 투데이의 최근 기사에서 볼 수 있듯이, 적어도 그 자체로만 보면 AI는 아직 몇 가지 문제점을 분명히 해결할 필요가 있다. 그러나 물론 AI는 그 자체로 존재하는 것이 아니므로 적어도 현재로서는 AI를 이용해 거짓을 퍼뜨리고, 권력을 얻고, 다른 사람을 해치고, 초인이 되려고 하는 타락한 인간이 진정한 위협이다.



그런 실례도 많다. 잭 브루스터는 최근 월스트리트 저널에 "어떻게 105달러로 스스로 작동하는 AI 기반 선전 기계를 만들었나"라는 글을 기고했다. 그는 광고로 자체 자금을 조달할 수 있는 AI를 사용하여 매일 수천 개의 거짓 기사를 생성하고 게시할 수 있는 이른바 '핑크 슬라임' 뉴스 사이트를 시작하는 데 단 이틀밖에 걸리지 않았다.



이 모든 과정은 그의 말대로 "전문 지식이 전혀 필요하지 않았고", 어떤 정치적 편견이나 후보를 선택하든 그에 맞게 조정할 수 있었다. 독자들은 자동 생성된 가짜 뉴스를 실제 저널리즘과 구분할 수 있는 명확한 방법이 없었고, 브루스터가 자신의 가짜 웹사이트에 부여한 이름인 <버키 스테이트 프레스>가 그의 정치적 성향에 따라 컴퓨터가 만들어낸 것일 뿐이라는 사실을 알 수도 없었다. 더 큰 문제는 브루스터가 사이트를 구축하는 과정에서 만난 한 사람은 파키스탄의 웹 디자이너로, 이미 500개 이상의 유사한 사이트를 구축했다고 주장했다(기자들이 이 문제를 폭로하는 데 관심이 없을 가능성이 크다). 뉴스 및 정보 평가 서비스인 뉴스가드는 지금까지 이러한 "핑크 슬라임" 뉴스 사이트를 천 개 이상 확인했으며, 그 중 상당수가 "정치 공작원들이 비밀리에 자금을 지원하고 운영"하고 있다고 주장한다.



"무엇이 진실인가?", "누가 실제로 진실을 말하고 있는가?"와 같은 질문은 AI 기술이 인기를 얻고 부도덕한 사람들이 AI 기술을 인터넷, 뉴스피드, 방송에 잘못된 정보가 넘치게 만드는데 사용함에 따라 그 어느 때보다 더 중요해질 것이다. 기독교인들은 지금보다 훨씬 더 많은 분별력을 키워야 할 것이며, 특히 편견과 가정을 강화하는 경우라면, 우리가 보는 것을 그대로 믿어서는 안 될 것이다.



더 중요한 것은, 어떤 업무와 활동은 절대 기계 학습에 맡겨서는 안 되고 오롯이 인간이 감당해야 하는가를 신중하게 따져봐야 한다는 것이다. 이것은 이미 시급한 문제이다. AP 통신은 작년에 독일의 자유주의 개신교 신자들이 모인 자리에서 '설교'를 한 인공지능 아바타에 대해 보도한 바 있다. 최근 한 주요 가톨릭 변증 웹사이트에서는 "저스틴 신부"라는 이름의 "대화형 AI" 챗봇을 발표했는데, "검색자가 신앙의 여정을 시작하거나 계속할 수 있는 새롭고 매력적인 방법"을 제공한다고 가정한다. "저스틴 신부"를 "끌어내리는" 데는 그리 오랜 시간이 걸리지 않았다. 굳이 말하자면, 인공지능의 영적 조언을 따른다는 것은 끔찍한 생각이다.



존 레녹스 박사는 <2084: 인공지능과 인류의 미래>에서 일부 주요 AI 선구자들이 트랜스휴머니즘을 공개적으로 지지하는 것은 놀랍지 않다는 주장했다. 그런 세계관의 중심에는 동산에서 뱀이 속삭였던 아주 오래된 거짓말, 즉 인간이 "신과 같이 될 것"이라는 믿음이 있다. 우리는 AI를 합법적이고 유용하게, 인도적으로 사용할 수 있다는 사실을 부정하지 않으면서도 그런 세상이 올 가능성을 인정할 수 있다.



합법적인 것과 위험한 것, 거짓된 것, 사악한 것을 구별하는 유일한 방법은 인간됨이 무엇을 의미하는지 명확히 아는 것이다. 그렇다면 AI의 진짜 위험은 타이밍일지도 모른다. 몇 년 전 철학자 피터 크리프트는 우리의 막대기와 돌이 수소폭탄으로 변한 것처럼, 우리가 도덕적으로는 유아가 되어버렸다고 애도했다. 마찬가지로 서구 세계가 하나님의 형상을 지닌 인간이 누구인지, 언어와 진리 사이의 고유한 관계, 인간성의 한계를 잃어버린 반면, 우리의 기술은 인간에게 엄청나게 중요하고 강력한 도구를 제공했다. 대부분의 강력한 도구가 그러하듯, AI의 진정한 위험은 이를 사용하거나 오용하는 사람들이다.



하지만 기독교인은 세상을 위해 꼭 필요하고 중요한 선물, 즉 인간의 육체적, 도덕적 한계를 포함한 인간됨의 의미에 대한 진리를 가지고 있다는 점을 잊어서는 안 된다.



0 views0 comments

Recent Posts

See All

고통 중의 소망

고통 중의 소망 (2024/11/08) - 존 스톤스트리트 1. 영어 오디오 및 원문 스크립트 https://www.breakpoint.org/hope-in-suffering/ 2. 한국어 오디오 및 번역 스크립트 (1) 한국어 오디오: ...

새로운 성 혁명

새로운 성 혁명 (2024/11/7) -존 스톤스트리트/재러드 헤이든 1. 영어 오디오 및 원문 스크립트 https://breakpoint.org/the-new-sexual-revolution/ 2. 한국어 오디오 및 번역 스크립트 (1) 한국어...

Comments


Post: Blog2_Post
bottom of page