[해외 도서관 소식은 뉴스의 전체적인 맥락을 보다 신속하게 전달하는 것을 가장 우선적으로 생각하고 있습니다. 이를 위해 번역과 용어를 매끄럽게 수정하지 못하고 있음을 양해바랍니다.]

[스웨덴] 오래된 방식으로 자료를 평가하는 것은 더 이상 유효하지 않다

2023년 12월 22일 | 관련

텍스트, 이미지, 오디오를 검토하는 전통적인 입증된 방법은 더 이상 유효하지 않습니다. AI는 소스를 평가하는 새로운 방법을 필요로 합니다.

ChatGPT가 전 세계를 강타한 것은 1년 전이었습니다. 출시 두 달 만에 이 AI 챗봇은 1억 명이 넘는 사용자를 확보했습니다. 이 강력한 기술을 누구나 쉽게 이용할 수 있게 된 것이죠. 로그인하여 질문하고 합리적인 답변을 받기만 하면 됩니다. 하지만 이 모델의 기반이 되는 기술은 결코 간단하지 않으며, 이것이 바로 AI가 생성한 자료를 비판적으로 검토하기 어려운 이유 중 하나입니다.
– ChatGPT와 같은 대규모 언어 모델을 제대로 이해하려면, 기존의 검색 엔진이나 도서관 분류로는 전혀 작동하지 않는다는 점을 이해해야 합니다. ChatGPT는 방대한 양의 텍스트를 기반으로 언어 패턴에서 답을 만들어냅니다.”라고 룬드 대학교의 교수인 올로프 선딘은 말합니다.

ChatGPT와 같은 AI 언어 모델은 자가 학습 기술을 기반으로 하며, AI 서비스가 이전 상호 작용과 모든 입력 데이터에서 이미 학습한 내용을 바탕으로 가장 가능성이 높은 것을 바탕으로 텍스트 응답을 생성합니다.

ChatGPT의 가장 큰 문제점은 서비스에서 제공하는 결과에 출처가 없기 때문에 더 이상 일반적인 방식으로 소스 비평을 수행할 수 없다는 것입니다.

Olof Sundin


사용자가 제공한 지침을 사용하여 ChatGPT는 특정 대상, 목적 및 어조로 특정 장르의 텍스트를 전달할 수 있습니다. 그러나 산문의 내용이 진실인지 거짓인지는 서비스의 책임이 아닙니다. AI 언어 서비스는 착각, 즉 사실을 지어낼 수 있으며 ChatGPT는 심지어 출처를 착각하는 것으로 알려져 있습니다. 예를 들어, 가디언 신문으로 가상의 출처를 인용해 보도한 바 있습니다.”

“ChatGPT의 가장 큰 문제점은 서비스가 제공하는 결과에 출처가 없기 때문에 일반적인 방식으로 출처 비평을 수행할 수 없다는 것입니다.”라고 올로프 선딘은 말합니다.

학계에서 생성형 AI와 관련된 부정행위 및 소스 자료에 대한 논쟁이 시작된 것은 학생들이 ChatGPT를 사용하기 시작하면서부터입니다. 그 이후로 몇몇 새로운 AI 서비스는 강력한 AI 도구를 위해 대량의 데이터를 수집할 때 저작권법을 무시한다는 비판을 받았고, 아티스트들로부터 소송을 당하기도 했습니다.
많은 언론사들은 텍스트와 자료를 수집하는 이른바 AI 스크래핑을 중단했습니다. 예를 들어, 애프톤블라뎃은 AI 기술을 사용하여 텍스트를 요약하는 대신 ChatGPT를 소유한 OpenAI가 자사 기사를 수집하는 것을 원하지 않습니다.

캐롤리나 앤더스도터. 사진: CC BY 4.0 힐다 포스(Hilda Forss)

저작권 논쟁과 함께 개인의 무결성에 대한 논의도 필요합니다. 핀란드 오보 아카데미 대학의 정보과학 박사 과정 학생이자 웁살라에서 휴학 중인 대학 사서인 카롤리나 안데르스도터는 “AI 모델의 기반이 되는 방대한 양의 데이터는 사람들이 공유한 정보에서 나온다”며 “데이터 수집, 개인정보 보호, 디지털화에 관해서는 스웨덴에 순진함이 있다고 생각한다”고 말합니다. “문제는 대규모 AI 서비스를 기업이 소유하고 있다는 점입니다. 개방형 AI는 존재하지 않습니다. 도서관 서비스인 오픈 라이브러리에 대응하는 AI가 있다면 기꺼이 사용할 의향이 있습니다.

많은 인공지능 서비스에 액세스하려면 사용자는 광범위한 동의서를 승인해야 하지만 인공지능과 개인정보 보호에 대한 논쟁은 아직 시작되지 않았습니다. 카롤리나 앤더스도터는 이것이 도서관이 이 분야에서 지식을 제공해야 하는 또 다른 이유라고 생각합니다.
올해 8월, 그녀는 도서관에서 AI에 대한 지식의 중요성에 대한 에세이를 Biblioteksbladet에 기고했습니다.

“도서관은 기술, 사회, 시민의 교차로에서 역할을 담당하고 있습니다. 도서관은 그 사이의 허브입니다. 특히 지식이 부족한 사람들이 정보를 얻기 위해 도서관을 찾습니다.”라고 앤더스도터 씨는 말합니다.

도서관은 기술, 사회, 시민이 교차하는 지점에서 역할을 합니다. 도서관은 이들 사이의 연결고리입니다.

Karolina Andersdotter


그녀는 AI에 대한 지식을 Mik, 미디어 및 정보 리터러시 내의 개별 기술로 보지 않고 미디어 리터러시, 이미지 리터러시, 컴퓨터 리터러시 등 개념의 모든 하위 영역에 AI가 포함된다고 믿습니다.

여기에 AI 응용 프로그램이 있을 수 있다고 생각하지 않고는 어떤 매체와도 관련이 없습니다.
스웨덴 인터넷 재단의 올해 보고서 Svenskarna och 인터넷 (스웨덴과 인터넷)에 따르면 스웨덴인 10 명 중 3 명이 작년에 AI 도구를 사용 한 것으로 나타났습니다. 그러나 스웨덴인 3명 중 1명은 AI가 미래에 부정적인 영향을 미칠 것이라고 생각하고 있습니다. “터미네이터 영화 기억하는 사람 없나요?” 한 사람이 자유 텍스트 응답으로 물었습니다. 인공지능이 실존적 위협이라는 이미지가 많은 사람들을 두렵게 합니다.
– 이들은 인공 일반 지능(AGI)을 기계 학습 및 확률 방법과 같은 오늘날 우리가 사용하는 일반적인 인공지능 애플리케이션과 혼동합니다. 이는 논쟁의 분위기를 고조시켜 더 엄격한 규제와 입법이 지극히 합리적으로 보이도록 만들지만 위험하기도 합니다. 이대로 가다가는 권위주의 사회가 될 수도 있습니다.”라고 보라스 대학의 도서관 및 정보과학 교수인 유타 하이더는 말합니다. 그녀는 이어서 다음과 같이 말합니다.”
– 기술 대기업의 독점적 지위를 더욱 공고히 하면서 실제 문제를 규제하는 데 실패할 위험도 있습니다.”
– 사서들이 AI를 이해하는 데 중요한 역할을 한다고 믿습니다.”
– 대중은 AI가 무엇이고 무엇이 아닌지에 대한 미묘한 그림이 필요합니다.

보고서의 모든 이미지는 AI 아티스트 애니카 노르덴스키올드가 제작했습니다.

이는 논쟁의 분위기를 고조시켜 더 엄격한 규제와 입법이 지극히 합리적으로 보이도록 하는 방법이지만, 위험하기도 합니다. 이런 식으로 가면 권위주의 사회가 될 수 있습니다.

Jutta Haider

인공지능이 새로운 현상이라고 생각하기 쉽지만, 1950년대에 이미 인공지능은 하나의 학문 분야가 되었습니다. 지난해에는 오디오, 비디오, 텍스트 등의 콘텐츠를 생성하고 제작할 수 있는 서비스인 생성형 AI가 많은 주목을 받았는데, 특히 생성형 AI가 가짜 계정과 무한한 양의 정보로 허위 정보 캠페인을 전례 없는 규모로 부풀릴 수 있다는 우려로 인해 많은 관심을 받았습니다. 따라서 어떤 텍스트, 이미지, 영화, 오디오 클립이 AI가 생성한 것인지, 아니면 사람이 만든 것인지 구분하는 것이 중요합니다. 하지만 라이즈 연구소의 선임 연구원이자 <비블리오테크스블라데트>에 정기적으로 기고하는 칼 히스에 따르면, 이는 쉽지 않은 일이며 점점 더 어려워지고 있습니다.

지난 3월, 미국의 한 연구팀은 인간이 AI가 생성한 텍스트와 인간이 작성한 텍스트를 구분하기 위해서는 ChatGPT와 같은 언어 모델에 ‘특정 방언’이 필요하다는 결론을 내렸습니다. 연구진은 4,600명의 피험자에게 7,600개의 개인 프레젠테이션에 대한 액세스 권한을 부여한 후 이러한 결론에 도달했습니다. 50~52%의 경우에만 피험자들이 AI가 생성한 텍스트와 사람이 작성한 텍스트를 구분할 수 있었습니다.”
“최근 몇 달 동안 제가 본 연구에 따르면 전문가조차도 텍스트가 사람인지 기계인지 구분할 수 없습니다.”라고 칼 히스는 말합니다.
“AI 기술로 만든 합성 음성도 감지하기가 점점 더 어려워지고 있습니다.”
“AI가 생성한 오디오에는 디지털로 생성되었음을 드러내는 특정 패턴이 있지만 편집 프로그램에서도 동일한 패턴이 나올 수 있습니다.

칼 히스.

칼 히스에 따르면, 이미지와 영상이 AI로 제작되었는지 여부는 여전히 쉽게 구분할 수 있다고 합니다. 예를 들어, 이미지 제작 앱은 손을 그리는 데 서툴고 디테일을 살리는 데 어려움을 겪으며 배경의 텍스트 표시와 같은 모호한 부분을 흐리게 처리하는 경향이 있습니다. 또한 이미지에 특정 ‘일반적’ 또는 예술적인 느낌이 부여되기도 합니다. 또한 도구가 항상 그럴듯한 방식으로 중력을 처리하는 것은 아닙니다. AI 이미지에 떠다니는 물체가 있는 경우도 있습니다.
– 대부분의 경우 사람들은 AI 기반 이미지와 비AI 기반 이미지를 구분할 수 있습니다. 하지만 모든 AI 이미지에, 모든 상황에 적용되는 것은 아닙니다.”라고 칼 히스는 말합니다.”
더 나아가서 그는 AI로 생성된 이미지란 무엇인가라는 질문을 던집니다. 구글의 검색 엔진과 휴대전화의 카메라에는 이미 AI 요소가 들어 있습니다.
이제 구글은 사진을 찍는 동안 AI 기술로 이미지를 조작할 수 있는 새로운 카메라도 출시합니다.
잘못 놓인 꽃을 옮기고 울고 있는 사람에게 대신 웃는 표정을 지어줄 수 있으며, 이는 실제 사진을 찍기 전에 이미 사진 앱에서 이루어집니다.
그것은 만들어진 AI 이미지이지만 그 당시 존재했던 현실의 이미지가 증폭된 것이기도 합니다. 이미 사진에 AI 조작이 들어가 있기 때문에 더 이상 휴대폰에서 사진을 꺼내 증거로 사용할 수 없게 됩니다. 경찰에게 이 이미지가 실제로 진실이나 어떤 객관적인 현실을 반영했다고 말할 수 없기 때문입니다.”라고 히스 씨는 말합니다.

최근에는 다른 언어로 동영상을 제작할 수 있는 여러 AI 서비스가 등장했습니다. 예를 들어, 사용자가 말하는 영화 시퀀스를 업로드하면 AI 서비스가 스크립트를 작성하고 번역하여 일본어로 말하는 새로운 클립을 만듭니다. 최근에는 이 기술을 사용하여 아랍어로 번역된 SD 리더 지미 오케손의 대국민 연설이 공개되었습니다.

이러한 급속한 발전의 또 다른 우려는 AI 서비스 프로그래밍에 내재된 알고리즘 편향성입니다. 주요 이미지 및 언어 서비스는 인터넷에서 수집한 방대한 양의 데이터를 기반으로 합니다. 즉, 이러한 서비스는 사람들이 이미 온라인에서 생성한 콘텐츠를 기반으로 응답하며, 온라인에 이미 퍼져 있는 편견과 부정확성이 AI 서비스의 DNA에 내재되어 있습니다. 대형 AI 회사들이 이러한 편견을 없애기 위해 노력하고 있지만 쉽지 않습니다. 최근 옥스퍼드의 연구자들은 의학 저널인 랜싯(The Lancet)에 “아프리카 흑인 의사가 고통받는 백인 어린이를 치료한다”는 명령어 또는 프롬프트에 따라 텍스트-이미지 서비스인 미드저니가 이미지를 생성하도록 하는 것이 얼마나 어려운 일인지에 대해 기고했습니다. 명확한 지시에도 불구하고 이 도구는 밝은 색의 의사 이미지를 생성했고, 치료를 받는 어린이는 항상 어두운 피부색이었습니다.
Midjourney가 백인이 아닌 의사의 이미지를 생성할 때는 기린과 같은 이국적인 동물도 포함되었습니다. 내장된 편견이 너무 강해 서비스가 지침을 따르지 못했습니다.”
“이러한 편견을 해결하기 위해서는 AI가 온라인에 존재하는 기존 이미지를 흡수하여 학습한다는 점을 언급하는 것이 중요합니다.”라고 연구자들은 에세이에 썼습니다.

사서가 새로운 기술에 익숙해져야 하는 이유는 무엇인가요?
– 현재와 소통하려면 현재에 존재하는 기술을 이해해야 합니다. 그리고 AI는 큰 도전과 문제를 야기하는 동시에 많은 기회를 제공하는 기술입니다. 특히 연구, 분석, 검색, 텍스트 처리, 접근성 측면에서 그렇습니다.”라고 칼 히스는 말하며 모든 사서들이 AI 기술을 더 잘 이해하기 위해 시도해 볼 것을 촉구합니다.

“지식이 있어야만 AI의 부정적인 결과에 대응할 수 있습니다. 그리고 지식이 있어야만 기회를 활용할 수 있습니다.

Annika Nordenskiöld가 만든 AI 생성 이미지입니다.

많은 사람들이 인공지능이 생성하는 자료의 생산이 증가함에 따라 허위 정보가 급증할 것이라고 경고합니다. 미디어 및 정보 리터러시의 필요성이 커질 것이라는 결론을 내리는 것은 어렵지 않습니다. AI가 생성하는 허위 정보는 아직 시작되지 않았지만, AI에 의한 콘텐츠의 폭발적인 증가는 이미 시작되었습니다. 이미 지난 5월, AI 앱 붐은 전 세계 음악의 13%에 해당하는 1,440만 곡을 만들었습니다.
“전반적으로 콘텐츠가 폭발적으로 증가할 것입니다.” 출처 비평 및 가짜 뉴스와 관련된 문제를 오랫동안 모니터링해온 마티아스 세더홀름은 말했습니다.
역사학 박사 학위를 받은 그는 페이스북 그룹 Källkritik, fake news och faktagranskning(출처 비평, 가짜 뉴스 및 사실 확인)을 운영하며 Mik 등의 주제로 강의와 교육 과정을 진행한다.
이미 아마존은 AI로 쓴 책을 여러 권 보유하고 있다. 이 온라인 소매업체는 책에 AI가 작성했는지 여부를 명시해야 한다는 규칙을 추가했습니다.
“하지만 불량 행위자는 그냥 무시할 수 있으며 그러한 텍스트는 점점 더 좋아지고 있습니다.” 마티아스 세더홀름은 말했습니다.
최근 미디어 사이트 404는 AI 검사 앱 제로GPT의 도움을 받아 아마존의 버섯 가이드 중 일부가 AI로 작성된 것으로 드러났습니다.
그들은 건강에 직접 해로운 정말 나쁜 팁을 가지고 있었습니다. 책 뿐만 아니라 텍스트의 품질 보증을 위한 더 나은 시스템이 필요합니다.

AI가 쓴 버섯 안내서가 도서관 장서에 들어갈 수 있나요?
– 스웨덴 도서관은 어떤 책을 들여올지 조금 더 신중해야 할 것 같고, 사람들이 직접 쓴 글과 AI가 만든 글을 섞어서 자신의 이름으로 책을 출판하는 하이브리드 책이 더 많이 만들어질 것 같습니다.

인간이 만든 것과 컴퓨터가 만든 것 사이의 경계를 유지하는 것이 점점 더 어려워질 것입니다. 우리는 무엇이 진짜인지, 무엇이 예술인지, 무엇이 인간이 만든 것인지 다시 생각해야 할 것입니다.

마티아스 세더홀름

마티아스 세더홀름에 따르면 앞으로 일어날 일은 곧 모든 곳에서 AI를 볼 수 있게 될 것입니다. 워드 프로세싱과 이미지 프로그램에도 AI 기술이 적용될 것입니다. 모든 사이트에는 제너레이티브 AI를 기반으로 구축된 챗봇이 있을 것입니다. 다양한 방향으로 더욱 긴밀하게 연결된 새로운 AI 애플리케이션이 등장할 것입니다.

또한 이 세상은 계속 지켜보면서 제대로 작동하는지 확인해야 합니다. 잘 작동한다면 매우 유용할 것입니다.”라고 마티아스 세더홀름은 말합니다.
AI 도구도 더 좋아지고 더 신뢰할 수 있게 될 것입니다.
“매우 빠르게 발전하여 디지털 세상 어디에나 AI가 있을 것이지만 아직 이를 평가하고 테스트할 국제적 또는 국가적 인프라가 없습니다.
마티아스 세더홀름은 AI 도구가 사서들의 일상에서 자연스럽게 일부가 될 것이며 신속한 엔지니어링, 즉 AI 도구에 명령을 내리는 지식이 Mik의 자연스러운 부분이 될 것으로 예측합니다.

인공지능이 더 많은 것을 학습함에 따라 인공지능 도구의 학습 능력도 점점 더 향상되고 있습니다. 우리는 무엇이 진짜이고 예술이며 인간이 만든 것인지 다시 생각해야 할 것입니다. 사람들은 AI 기술로 놀라운 일을 해내고 있습니다. 하지만 온라인에 AI 콘텐츠가 많아질수록 AI는 AI가 생성한 콘텐츠에 대해 더 많은 학습을 받게 될 것입니다. AI가 생성한 자료가 어떤 식으로든 복제될 것이며, 장기적으로 어떤 결과를 가져올지 의문입니다.

AI 아티스트 애니카 노르덴스키올드: “내 인생에서 새로운 예술 형식을 경험하게 될 줄은 상상도 못했다”

Annika Nordenskiöld가 만든 AI 생성 이미지입니다.

출처 보기
.

0개의 댓글