더 안전한 미래를 위한 인공 지능의 위험 관리
인공지능을 기반으로 한 기술은 의료, 교육, 금융, 소셜 미디어, 자율주행차, 프로그래밍 등 삶의 모든 측면에 빠르게 침투하고 있습니다. 인공지능의 발전은 멈출 수 없으므로 인공지능의 영향력은 매년 계속 확대될 것입니다. 이전 글에서 인공지능의 위험성을 살펴보았다면, 이번 글에서는 인공지능 사용과 관련된 부정적인 요소를 줄일 수 있는 방법을 살펴보겠습니다.
AI 탐지 도구
현대 기술의 도움으로 오디오, 사진, 동영상을 조작하고, 딥페이크를 만들고, 여론을 조작하고, 다른 사람의 목소리를 모방하고, 증거를 위조하는 것이 가능해졌습니다.
현재 연구자들은 위조를 탐지하는 방법을 연구하고 있으며, 이를 통해 오디오 또는 비디오 녹음이 변경되었는지 또는 완전히 인공지능에 의해 생성되었는지 여부를 판단할 수 있습니다.
생성된 이미지 감지
- 인텔은 페이크캐처 기술을 기반으로 한 최초의 실시간 딥페이크 탐지 플랫폼을 개발했습니다. 이 기술은 원격 광혈류학 기술을 사용하여 이미지 픽셀의 미묘한 '혈류'를 분석합니다. 여러 프레임의 신호를 분류기를 통해 처리하여 문제의 영상이 진짜인지 가짜인지 판단합니다.
- 미국 정부 기관인 DARPA는 인공적으로 생성된 합성 이미지를 정확하게 감지할 수 있는 SemaFor 기술(시맨틱 포렌식의 줄임말)을 연구하고 있습니다.
또한, 이미 생성된 이미지와 텍스트를 탐지하기 위한 수십 가지의 다양한 도구가 존재합니다.
비판적 사고
허위 정보, 선전, 다양한 속임수 수법은 인공지능이 발명되기 훨씬 전부터 존재해 왔습니다. 본인이나 지인이 사기꾼의 표적이 된 적이 있을 수도 있습니다. 어떤 사람들은 '나이지리아 왕자' 상속 이메일과 같은 사기 수법에 쉽게 속는 반면, 어떤 사람들은 더 회의적이고 비판적으로 생각합니다. 이미지, 오디오, 비디오를 조작할 수 있는 기술이 발달함에 따라 이제 우리는 더욱 더 부지런히 사실 확인에 힘써야 합니다.
미래학자 마크 포드는 이렇게 말했습니다: "무엇이 진짜이고 무엇이 가짜인지 아무도 모릅니다. 따라서 말 그대로 자신의 눈과 귀를 믿을 수 없는 상황으로 이어지며, 지금까지 우리가 최선의 증거라고 여겨왔던 것을 믿을 수 없게 됩니다."라고 말합니다.
사기 및 허위 정보에 대응하는 것은 순환적인 과정이 될 것입니다. 속임수를 탐지하는 새로운 방법이 등장하면 다른 사람들이 이에 대응하는 방법을 개발하여 더 많은 안전장치를 만들게 될 것입니다. 완벽한 보호 기능을 제공하지는 못하더라도 무방비 상태는 아닐 것입니다.
프란치스코 교황의 가짜 사진
새로운 일자리 창출
인공지능의 광범위한 도입은 일자리 감소의 위험을 수반합니다. 이 문제에 대해서는 이전 글에서 자세히 설명한 바 있습니다. 여기에서 연구 링크를 찾아 가장 위험에 처한 직업과 위험에 처하지 않은 직업을 알아볼 수도 있습니다.
물론 많은 사람들이 인공지능으로 인해 일자리를 잃을 것이며(다양한 추산에 따르면 1억 명에서 8억 명), 일부는 전문적인 재교육을 받아야 할 것입니다(Seo.ai는 그 수를 1억 2천만 명으로 추정합니다).
그러나 인공지능은 일자리를 빼앗을 뿐만 아니라 새로운 일자리를 창출하기도 합니다. 게다가 새로운 일자리가 사라지는 속도보다 새로운 일자리가 더 빨리 나타나는 시나리오도 가능합니다. 세계경제포럼에서 이에 대해 쓴 글은 다음과 같습니다:
파괴되는 일자리의 수가 창출되는 '미래의 일자리'의 수를 능가할 것이지만, 이전과 달리 일자리 창출은 둔화되는 반면 일자리 파괴는 가속화되고 있습니다. 이러한 수치를 바탕으로 2025년까지 인간과 기계 간 분업의 변화로 인해 8,500만 개의 일자리가 사라지고 9,700만 개의 새로운 역할이 생겨날 것으로 예상됩니다.
새롭게 떠오르는 직업 중에는 다음과 같은 것들이 있습니다:
- AI 모델 및 프롬프트 엔지니어
- 인터페이스 및 인터랙션 디자이너
- AI 콘텐츠 크리에이터
- 데이터 큐레이터 및 트레이너
- 윤리 및 거버넌스 전문가
새로운 일자리 중 일부
기술 수용하기
일부 교사들은 AI가 대신 계산을 해주기 때문에 학생들의 글쓰기 능력이 발달하지 않을 수 있다고 우려합니다. 전자계산기가 널리 보급된 1970년대와 1980년대에도 비슷한 상황이었습니다. 수학 교사들은 학생들이 더 이상 기본적인 산수를 배우지 못할까 봐 걱정했습니다.
진보에 반대하는 사람들은 항상 있었습니다. 수천 년 전 고대 그리스에서 소크라테스는 글쓰기 자체를 반대했습니다:
글은 학습자의 영혼에 건망증을 일으킬 것입니다. 왜냐하면 그들은 자신의 기억을 사용하지 않고 외부의 글자를 신뢰하고 자신을 기억하지 않을 것이기 때문입니다. 네가 발견한 구체적인 것은 기억하는 데 도움이 되지 않고 회상하는 데 도움이 되며, 네가 제자들에게 진리가 아니라 진리의 모양만 주니, 그들은 많은 것을 듣고도 배운 것이 없고, 전지전능한 것처럼 보이나 실제로는 아무것도 알지 못하며, 실체가 없는 지혜의 쇼를 하며 지루한 벗이 될 것이다.
고대 그리스를 기억할 만큼 고대인은 아니지만, 수학 선생님은 "주머니에 항상 계산기가 있는 것은 아니다"라고 말씀하시곤 하셨어요. 그런데 그 말이 맞을까요? 저는 주머니에 계산기를 가지고 있습니다. 제 휴대폰에 있는 애플리케이션이죠.
진보는 멈출 수 없습니다. 조만간 사람들은 인공지능 기반 기술을 받아들여야 할 것입니다. 인공지능은 계산기만큼이나 보편적인 도구가 될 것입니다.
MathGPT Pro
이 시점에서 챗봇은 불완전하고 착각에 빠지기 쉬우며 생성된 정보의 정확성을 신중하게 확인해야 한다는 점을 기억해야 합니다. 그러나 교육이나 연구 작업에서는 출처를 확인하고 사실을 다시 확인하는 것이 일반적입니다. 시간이 지남에 따라 챗봇은 더욱 개선되고 신뢰할 수 있게 될 것이며, 이는 GPT-2에서 GPT-4로 진화하는 ChatGPT의 발전 과정에서도 확인할 수 있습니다.
확장 가능한 감독
AI 시스템이 더욱 강력해지고 복잡해짐에 따라 인간의 피드백을 통해 제어하기가 점점 더 어려워지고 있습니다. 특히 특정 영역에서 AI가 인간을 능가하는 경우, 인간이 복잡한 AI의 행동을 평가하는 것은 느리거나 불가능할 수 있습니다. AI의 결과물이 거짓으로 설득력이 있는 경우를 감지하려면 인간의 도움이나 오랜 시간이 필요합니다. 확장 가능한 감독은 감독에 필요한 시간과 노력을 줄일 수 있습니다.
닉 보스트롬에 따르면, 초지능의 개발은 분자 나노기술이나 합성생물학 같은 다른 첨단 기술로 인한 실존적 위험을 잠재적으로 완화할 수 있다고 합니다. 따라서 잠재적으로 위험한 다른 기술보다 초지능의 개발에 우선순위를 두면 전반적인 실존적 위험을 낮출 수 있습니다.
일반 AI를 감독할 수 있는 초지능을 개발하는 것은 말보다 수레를 먼저 생각하는 것처럼 보일 수 있지만, 초지능은 그리 멀지 않은 미래에 실현될 수 있습니다. 레오폴드 아셴브레너의 "상황 인식"에 따르면 10년 이내에 초지능을 볼 수 있을 것이라고 합니다.
인공 지능 폭발
머지않아 우리는 인간보다 훨씬 더 똑똑하고, 우리가 이해조차 할 수 없는 새롭고 창의적이며 복잡한 행동을 할 수 있는 초지능 시스템, 심지어 수십억 개의 작은 문명을 손에 쥐게 될지도 모릅니다. 그 힘 또한 엄청날 것입니다. 초지능을 다른 분야의 연구 개발에 적용하면 머신러닝 연구뿐만 아니라 로봇 공학 문제를 해결하고 수년 내에 다른 과학 및 기술 분야에서 극적인 도약을 이루며 산업적으로 폭발적인 발전을 이룰 수 있을 것입니다. 초지능은 군사적으로 결정적인 우위를 점하고 전례 없는 파괴력을 발휘할 것입니다. 우리는 인류 역사상 가장 격렬하고 불안정한 순간에 직면하게 될 것입니다.