banner
홈페이지 / 블로그 / 폭주하는 AI를 막을 수 있을까?
블로그

폭주하는 AI를 막을 수 있을까?

Jan 31, 2024Jan 31, 2024

매튜 허슨

우리 주변에는 가짜 사람들이 점점 더 많아지고 있습니다. 우리는 그것을 알 때도 있고, 모를 때도 있습니다. 그들은 웹사이트에서 우리에게 고객 서비스를 제공하고, 비디오 게임에서 우리를 표적으로 삼고, 소셜 미디어 피드를 채웁니다. 그들은 주식을 거래하고 OpenAI의 ChatGPT와 같은 시스템의 도움으로 에세이, 기사, 이메일을 작성할 수 있습니다. 결코 이러한 AI 시스템은 본격적인 사람에게 기대되는 모든 작업을 수행할 수 없습니다. 그러나 그들은 특정 영역에서 탁월하고 영역을 확장하고 있습니다.

AI에 관련된 많은 연구자들은 오늘날의 가짜 사람들은 시작에 불과하다고 믿습니다. 그들의 견해로는 현재의 AI 기술이 인공일반지능(AGI), 즉 여러 가지 또는 대부분의 측면에서 인간 수준에서 생각할 수 있는 더 높은 형태의 AI로 발전할 가능성이 높습니다. 소규모 그룹에서는 AGI의 힘이 기하급수적으로 확대될 수 있다고 주장합니다. ChatGPT가 이미 할 수 있는 것처럼 컴퓨터 시스템이 코드를 작성할 수 있다면 결국 컴퓨팅 기술이 우리의 통제를 벗어나는 "특이점"에 도달할 때까지 스스로를 계속해서 개선하는 방법을 배울 수 있습니다. 이러한 사상가들이 구상한 최악의 시나리오에서는 통제할 수 없는 AI가 우리 기술 생활의 모든 측면에 침투하여 인프라, 금융 시스템, 통신 등을 방해하거나 방향을 바꿀 수 있습니다. 이제 초인적인 교활함을 부여받은 가짜 사람들은 자신의 입지를 강화하는 조치에 투표하고 투자하도록 우리를 설득할 수 있으며, 취약한 개인이나 파벌은 정부를 전복하거나 인구를 공포에 떨게 할 수 있습니다.

특이점은 결코 잊혀진 결론이 아닙니다. AGI가 손에 닿지 않을 수도 있고, 컴퓨터가 스스로 더 똑똑해질 수 없을 수도 있습니다. 그러나 AI, AGI 및 초지능 간의 전환은 우리가 감지하지 않고도 발생할 수 있습니다. 우리의 AI 시스템은 종종 우리를 놀라게 했습니다. 그리고 최근 AI의 발전으로 인해 가장 우려되는 시나리오가 더욱 그럴듯해졌습니다. 대기업들은 이미 일반 알고리즘을 개발하고 있습니다. 지난 5월 Google의 모회사인 Alphabet이 소유한 DeepMind는 ChatGPT와 동일한 유형의 알고리즘을 사용하여 문자 메시지부터 메시지 전송까지 다양한 작업을 수행하는 "일반 에이전트"인 Gato를 공개했습니다. 비디오 게임을 하며 로봇 팔을 제어합니다. 브리티시 컬럼비아 대학과 벡터 연구소의 컴퓨터 과학자인 제프 클룬은 "5년 전만 해도 내가 인간 수준이나 초인적 수준의 AI가 가능하다고 믿는다고 큰 소리로 말하는 것은 내 경력에서 위험했다"고 말했다. 나. (Clune은 Uber, OpenAI 및 DeepMind에서 일했습니다. 그의 최근 연구에서는 개방형 방식으로 세계를 탐색하는 알고리즘이 AGI로 이어질 수 있음을 시사합니다.) 이제 그는 AI 문제가 "해산"됨에 따라 더 많은 연구자들이 나오고 있다고 말했습니다. AGI는 가능하며 사회에 불안정한 위험을 초래할 수 있다고 공개적으로 선언하는 "AI 안전 옷장"입니다. 지난 3월, 저명한 기술자 그룹은 "결국 수적으로 앞서고, 똑똑하고, 쓸모없고, 우리를 대체할 수 있는 비인간 정신"의 개발을 방지하기 위해 일부 유형의 AI 연구를 중단할 것을 촉구하는 서한을 발표했습니다. 다음 달, AI의 가장 뛰어난 선구자 중 한 명인 Geoffrey Hinton은 인류에 대한 위협을 포함하여 기술의 위험성에 대해 더 자유롭게 이야기할 수 있도록 Google을 떠났습니다.

AI 정렬이라고 하는 연구 분야가 점점 늘어나고 있으며, 컴퓨터 시스템이 인간의 목표에 "정렬"되도록 하여 위험을 줄이는 방법을 모색하고 있습니다. AI에 도덕적 가치나 그에 상응하는 기계 가치를 주입하면서 의도하지 않은 결과를 피하는 것이 아이디어입니다. 정렬 연구에 따르면 상대적으로 단순한 AI 시스템이라도 기괴한 방식으로 손상될 수 있는 것으로 나타났습니다. "디지털 진화의 놀라운 창의성"이라는 제목의 2020년 논문에서 Clune과 그의 공동 저자는 의도하지 않거나 예측하지 못한 AI 행동에 대한 수십 가지 실제 일화를 수집했습니다. 한 연구원은 아마도 기어 다니거나 미끄러지는 등 수평으로 움직이는 가상 생물을 디자인하는 것을 목표로 삼았습니다. 대신, 그 생물들은 키가 커지고 넘어져 붕괴를 통해 땅을 덮었습니다. 틱택토(tic-tac-toe) 버전을 플레이하는 AI는 의도적으로 기괴한 동작을 요청하고 상대방의 프로그램을 충돌시키고 강제로 프로그램을 종료함으로써 "승리"하는 방법을 배웠습니다. 놀라운 정렬 오류의 다른 사례도 많습니다. 보트 경주 게임을 하는 AI는 코스를 완료하는 대신 좁은 원을 그리며 운전하고 보너스를 받으면 더 많은 점수를 얻을 수 있다는 사실을 발견했습니다. 연구원들은 점수를 높이면서 AI 보트에 "불이 붙고, 다른 보트와 충돌하고, 잘못된 방향으로 가는" 것을 지켜봤습니다. AI 시스템이 더욱 정교해지고 강력해짐에 따라 이러한 종류의 비뚤어진 결과는 더욱 심각한 결과를 초래할 수 있습니다. 우리는 감옥 형량을 계산하고, 자동차를 운전하고, 약물을 설계할 수 있는 미래의 AI가 성공하기 위해 실패하는 것과 동등한 일을 하는 것을 원하지 않을 것입니다.