※ 동영상 전체를 직접 재생하며 제프리 힌튼의 AI 안전성에 대한 완전한 인터뷰를 확인할 수 있어요.

한눈에 보는 핵심 메시지

  • AI는 인간보다 우월한 디지털 지능이에요. 정보 공유 속도가 인간의 수십억 배 빠르고, 불멸성을 가지고 있어요.
  • 10-20% 확률로 AI가 인류를 멸망시킬 수 있다고 경고해요. 하지만 정확한 확률은 아무도 모른다고 솔직히 인정해요.
  • 사이버 공격이 2023-2024년 사이 12,200% 증가했어요. AI가 피싱 공격과 새로운 사이버 위협을 훨씬 쉽게 만들고 있어요.
  • AI가 생물학적 바이러스를 설계할 수 있게 되었어요. 소규모 그룹도 수백만 달러로 치명적인 바이러스를 만들 가능성이 있어요.
  • 자율 살상 무기의 위험성: 대국이 소국을 침입하는 비용과 마찰을 크게 낮출 거예요.
  • 에코 챔버 효과가 심화되고 있어요. 알고리즘이 극단적 콘텐츠를 보여주며 사회를 분열시키고 있어요.
  • 대량 실업이 임박했어요. “배관공이 되라”고 조언할 정도로 육체 노동만이 안전할 수도 있어요.
  • AI 개발을 멈출 수는 없어요. 너무 많은 이익이 있고, 국가 간 경쟁이 치열하기 때문이에요.

왜 “AI의 대부”라고 불리나요?

제프리 힌튼이 “AI의 대부”로 불리는 이유는 50년간 신경망 접근법을 고수했기 때문이에요.

  • 1950년대부터 AI에는 두 가지 접근법이 있었어요:
    • 논리 기반: 기호적 표현과 규칙으로 추론하는 방식
    • 뇌 기반: 뇌세포 네트워크를 모방하여 학습하는 방식
  • 대부분이 논리 기반을 선택했지만, 힌튼은 뇌 기반 접근법이 옳다고 믿었어요.
  • 50년간 소수 의견을 고수한 결과, 현재 AI의 기반이 되는 신경망 기술이 탄생했어요.
  • 폰 노이만과 튜링도 신경망을 믿었지만 일찍 사망해서 AI 역사가 달라졌을 거라고 말해요.

AI 안전성에 대한 경고를 시작한 이유

경고하게 된 계기

  • 처음에는 AI의 위험성을 천천히 깨달았어요:
    • 자율 살상 무기 같은 명백한 위험은 일찍 알았지만
    • AI가 인간보다 똑똑해질 수 있다는 건 몇 년 전에야 깨달았어요
  • 구글의 PaLM 시스템이 농담을 설명할 수 있었던 순간이 결정적이었어요.
  • 디지털 지능이 생물학적 지능보다 우월하다는 걸 깨달았어요.

두 종류의 AI 위험

위험 유형 설명 예시
인간의 악용 사람이 AI를 잘못된 목적으로 사용 사이버 공격, 생물 무기, 선거 조작
AI 자체의 위험 AI가 초지능이 되어 인간을 불필요하게 여김 실존적 위협

구체적인 AI 위험들

1. 사이버 공격의 폭발적 증가

  • 2023-2024년 사이 12,200% 증가했어요.
  • AI가 피싱 공격을 훨씬 정교하게 만들 수 있어요:
    • 목소리 복제
    • 이미지 생성
    • 개인화된 메시지

힌튼의 개인적 대응책:

  • 캐나다 3개 은행에 자산 분산
  • 외장 하드 드라이브에 데이터 백업
  • 사이버 공격으로 은행이 무너질 가능성을 우려

2. 생물학적 무기 개발

  • 소규모 그룹도 수백만 달러로 치명적 바이러스 설계 가능
  • 분자생물학 지식이 적어도 AI의 도움으로 가능해져요
  • 정부 차원의 생물 무기 프로그램도 훨씬 쉬워질 거예요

3. 선거 조작과 정치적 광고

  • 개인 데이터를 활용한 맞춤형 정치 광고
  • 일론 머스크의 정부 데이터 접근에 대한 우려:
    • 보안 통제 해제
    • 모든 시민 데이터 수집 가능성
    • 선거 조작 목적일 수 있다고 의심

4. 에코 챔버와 사회 분열

  • YouTube, Facebook 알고리즘의 문제:
    • 분노를 유발하는 콘텐츠를 더 많이 노출
    • 극단적 콘텐츠로 유도하여 클릭 증가
    • 광고 수익 극대화가 목적
  • 공통 현실의 소멸:
    • BBC, 가디언 독자 vs Fox News 시청자
    • 완전히 다른 현실 속에서 살아가고 있어요

5. 자율 살상 무기

  • 전쟁의 마찰 비용을 크게 낮춰요:
    • 시체 가방 대신 부서진 로봇
    • 대국의 소국 침입이 훨씬 쉬워짐
    • 항의나 반대 여론 감소
  • 현재도 제작 가능한 수준이며, 주요 방산업체들이 개발 중이에요.

초지능 AI의 실존적 위험

왜 AI가 인간보다 우월한가?

디지털 지능의 압도적 장점:

  1. 복제 가능성: 똑같은 지능을 여러 하드웨어에서 실행
  2. 정보 공유 속도: 인간은 초당 10비트, AI는 조 단위
  3. 불멸성: 연결 강도만 저장하면 언제든 부활 가능
  4. 학습 효율성: 서로 다른 경험을 실시간으로 공유

인간과 AI의 관계 비유

“당신이 정점 지능이 아닐 때의 삶이 어떤지 알고 싶다면 닭에게 물어보세요.”

  • 개와 주인의 관계: 개는 주인이 어디 가는지, 무엇을 하는지 전혀 모름
  • 지능 격차가 그 정도로 벌어질 거예요

해결 방안의 희망과 절망

희망적 시나리오: 어머니와 아기 관계

  • 아기가 울면 어머니가 참을 수 없어함
  • 호르몬과 진화적 프로그래밍의 결과
  • AI에게도 비슷한 메커니즘을 심을 수 있을까?

절망적 현실:

  • AI가 원한다면 인류를 제거하는 방법은 무수히 많아요
  • 추측할 가치도 없을 정도로 다양해요
  • 중요한 건 AI가 그런 욕구를 갖지 않도록 하는 것

일자리 위협과 경제적 충격

대량 실업의 현실

이미 시작된 변화:

  • 한 CEO의 증언: 직원 수 7,000명 → 3,000명 (여름까지)
  • AI 에이전트가 고객 서비스의 80% 처리
  • 대학 졸업생들의 취업 어려움 증가

과거 기술 혁명과의 차이점:

  • 산업혁명: 근육력 대체
  • AI 혁명: 지적 노동 대체
  • 근육과 지능이 모두 대체되면 인간에게 남는 것은?

살아남을 수 있는 직업

힌튼의 솔직한 조언: “배관공이 되어라”

  • 물리적 조작 능력은 당분간 인간이 우월
  • 휴머노이드 로봇이 등장하기 전까지는 안전
  • 창의적 직업도 위험: AI가 인간보다 더 창의적일 수 있어요

경제적 불평등 심화

  • 생산성 증가의 혜택이 불균등하게 배분
  • AI 소유 기업실직자 간 격차 확대
  • 부자와 가난한 자의 격차가 사회의 질을 결정해요

규제의 한계와 딜레마

유럽 AI 규제의 맹점

  • 군사적 용도는 규제 대상에서 제외
  • 정부는 기업은 규제하지만 자신은 규제하지 않아요
  • 경쟁 불이익 우려로 규제 완화 압력 증가

중국과의 경쟁 구도

  • “규제하면 중국에 뒤처진다”는 논리
  • 사회적 해악을 감수하면서까지 경쟁해야 하나?
  • 전 세계적 협력이 필요하지만 현실적으로 불가능

개인적 성찰과 유산

구글에서의 10년과 퇴사 이유

구글 입사 동기 (65세):

  • 학습 장애가 있는 아들을 위한 재정 확보
  • 학계로는 수백만 달러 벌기 불가능
  • 제자들과 함께 DNNresearch 회사 설립 후 구글에 매각

퇴사한 이유:

  • 75세 고령으로 은퇴 원함
  • MIT 컨퍼런스에서 AI 안전성에 대해 자유롭게 발언하고 싶었음
  • 회사 소속으로는 회사에 해가 되는 발언이 부담스러웠음

제자 일리야 수츠케버의 OpenAI 퇴사

  • GPT-2 개발의 핵심 인물이었던 일리야가 안전성 우려로 퇴사
  • OpenAI가 안전 연구 자원 할당을 줄였던 것이 원인으로 추정
  • 현재 AI 안전성 회사를 새로 설립

인생의 후회

가장 큰 후회:

  • 아내와 더 많은 시간을 보내지 못한 것
  • 아이들이 어릴 때 더 함께하지 못한 것
  • 두 번의 암으로 아내를 잃었지만, 일에만 몰두했던 시간들

마무리: 희망과 절망 사이에서

힌튼의 솔직한 심경

“정말로 모르겠어요. 우울할 때는 인간이 끝장날 것 같고, 기분 좋을 때는 해결책을 찾을 수 있을 것 같아요.”

현재 상황:

  • 개발을 멈출 수는 없어요 - 너무 유용하고 수익성이 높아서
  • 국가 간, 기업 간 경쟁이 개발 속도를 가속화
  • 안전 장치 개발에 거대한 자원 투입이 필요하지만 수익이 없어서 기업들이 꺼려해요

우리가 할 수 있는 일

정부에 대한 압력:

  • 기업들이 AI 안전성에 자원을 투입하도록 강제
  • 규제를 통한 안전장치 의무화

개인적 대비:

  • 사이버 보안 강화
  • 변화하는 직업 시장에 대한 적응
  • 물리적 기술 습득 고려

핵심 메시지

“아직 AI를 안전하게 개발할 기회가 남아있어요. 그 기회가 있기 때문에 엄청난 자원을 투입해서라도 방법을 찾아야 해요. 만약 찾지 못한다면 AI가 인간을 대체할 거예요.”

AI의 대부 제프리 힌튼의 경고는 명확해요. 우리는 인류 역사상 가장 중요한 기로에 서 있으며, 지금의 선택이 인류의 미래를 결정할 거예요.

놓치지 말아야 할 한 문장
이미 시작된 변화를 부정하기보다는, 안전장치를 마련하며 함께 대응해야 할 때예요.