AI의 대부 제프리 힌튼이 말하는 인공지능의 위험과 미래
한눈에 보는 핵심 메시지
- AI는 인간보다 우월한 디지털 지능이에요. 정보 공유 속도가 인간의 수십억 배 빠르고, 불멸성을 가지고 있어요.
- 10-20% 확률로 AI가 인류를 멸망시킬 수 있다고 경고해요. 하지만 정확한 확률은 아무도 모른다고 솔직히 인정해요.
- 사이버 공격이 2023-2024년 사이 12,200% 증가했어요. AI가 피싱 공격과 새로운 사이버 위협을 훨씬 쉽게 만들고 있어요.
- AI가 생물학적 바이러스를 설계할 수 있게 되었어요. 소규모 그룹도 수백만 달러로 치명적인 바이러스를 만들 가능성이 있어요.
- 자율 살상 무기의 위험성: 대국이 소국을 침입하는 비용과 마찰을 크게 낮출 거예요.
- 에코 챔버 효과가 심화되고 있어요. 알고리즘이 극단적 콘텐츠를 보여주며 사회를 분열시키고 있어요.
- 대량 실업이 임박했어요. “배관공이 되라”고 조언할 정도로 육체 노동만이 안전할 수도 있어요.
- AI 개발을 멈출 수는 없어요. 너무 많은 이익이 있고, 국가 간 경쟁이 치열하기 때문이에요.
왜 “AI의 대부”라고 불리나요?
제프리 힌튼이 “AI의 대부”로 불리는 이유는 50년간 신경망 접근법을 고수했기 때문이에요.
- 1950년대부터 AI에는 두 가지 접근법이 있었어요:
- 논리 기반: 기호적 표현과 규칙으로 추론하는 방식
- 뇌 기반: 뇌세포 네트워크를 모방하여 학습하는 방식
- 대부분이 논리 기반을 선택했지만, 힌튼은 뇌 기반 접근법이 옳다고 믿었어요.
- 50년간 소수 의견을 고수한 결과, 현재 AI의 기반이 되는 신경망 기술이 탄생했어요.
- 폰 노이만과 튜링도 신경망을 믿었지만 일찍 사망해서 AI 역사가 달라졌을 거라고 말해요.
AI 안전성에 대한 경고를 시작한 이유
경고하게 된 계기
- 처음에는 AI의 위험성을 천천히 깨달았어요:
- 자율 살상 무기 같은 명백한 위험은 일찍 알았지만
- AI가 인간보다 똑똑해질 수 있다는 건 몇 년 전에야 깨달았어요
- 구글의 PaLM 시스템이 농담을 설명할 수 있었던 순간이 결정적이었어요.
- 디지털 지능이 생물학적 지능보다 우월하다는 걸 깨달았어요.
두 종류의 AI 위험
위험 유형 | 설명 | 예시 |
---|---|---|
인간의 악용 | 사람이 AI를 잘못된 목적으로 사용 | 사이버 공격, 생물 무기, 선거 조작 |
AI 자체의 위험 | AI가 초지능이 되어 인간을 불필요하게 여김 | 실존적 위협 |
구체적인 AI 위험들
1. 사이버 공격의 폭발적 증가
- 2023-2024년 사이 12,200% 증가했어요.
- AI가 피싱 공격을 훨씬 정교하게 만들 수 있어요:
- 목소리 복제
- 이미지 생성
- 개인화된 메시지
힌튼의 개인적 대응책:
- 캐나다 3개 은행에 자산 분산
- 외장 하드 드라이브에 데이터 백업
- 사이버 공격으로 은행이 무너질 가능성을 우려
2. 생물학적 무기 개발
- 소규모 그룹도 수백만 달러로 치명적 바이러스 설계 가능
- 분자생물학 지식이 적어도 AI의 도움으로 가능해져요
- 정부 차원의 생물 무기 프로그램도 훨씬 쉬워질 거예요
3. 선거 조작과 정치적 광고
- 개인 데이터를 활용한 맞춤형 정치 광고
- 일론 머스크의 정부 데이터 접근에 대한 우려:
- 보안 통제 해제
- 모든 시민 데이터 수집 가능성
- 선거 조작 목적일 수 있다고 의심
4. 에코 챔버와 사회 분열
- YouTube, Facebook 알고리즘의 문제:
- 분노를 유발하는 콘텐츠를 더 많이 노출
- 극단적 콘텐츠로 유도하여 클릭 증가
- 광고 수익 극대화가 목적
- 공통 현실의 소멸:
- BBC, 가디언 독자 vs Fox News 시청자
- 완전히 다른 현실 속에서 살아가고 있어요
5. 자율 살상 무기
- 전쟁의 마찰 비용을 크게 낮춰요:
- 시체 가방 대신 부서진 로봇
- 대국의 소국 침입이 훨씬 쉬워짐
- 항의나 반대 여론 감소
- 현재도 제작 가능한 수준이며, 주요 방산업체들이 개발 중이에요.
초지능 AI의 실존적 위험
왜 AI가 인간보다 우월한가?
디지털 지능의 압도적 장점:
- 복제 가능성: 똑같은 지능을 여러 하드웨어에서 실행
- 정보 공유 속도: 인간은 초당 10비트, AI는 조 단위
- 불멸성: 연결 강도만 저장하면 언제든 부활 가능
- 학습 효율성: 서로 다른 경험을 실시간으로 공유
인간과 AI의 관계 비유
“당신이 정점 지능이 아닐 때의 삶이 어떤지 알고 싶다면 닭에게 물어보세요.”
- 개와 주인의 관계: 개는 주인이 어디 가는지, 무엇을 하는지 전혀 모름
- 지능 격차가 그 정도로 벌어질 거예요
해결 방안의 희망과 절망
희망적 시나리오: 어머니와 아기 관계
- 아기가 울면 어머니가 참을 수 없어함
- 호르몬과 진화적 프로그래밍의 결과
- AI에게도 비슷한 메커니즘을 심을 수 있을까?
절망적 현실:
- AI가 원한다면 인류를 제거하는 방법은 무수히 많아요
- 추측할 가치도 없을 정도로 다양해요
- 중요한 건 AI가 그런 욕구를 갖지 않도록 하는 것
일자리 위협과 경제적 충격
대량 실업의 현실
이미 시작된 변화:
- 한 CEO의 증언: 직원 수 7,000명 → 3,000명 (여름까지)
- AI 에이전트가 고객 서비스의 80% 처리
- 대학 졸업생들의 취업 어려움 증가
과거 기술 혁명과의 차이점:
- 산업혁명: 근육력 대체
- AI 혁명: 지적 노동 대체
- 근육과 지능이 모두 대체되면 인간에게 남는 것은?
살아남을 수 있는 직업
힌튼의 솔직한 조언: “배관공이 되어라”
- 물리적 조작 능력은 당분간 인간이 우월
- 휴머노이드 로봇이 등장하기 전까지는 안전
- 창의적 직업도 위험: AI가 인간보다 더 창의적일 수 있어요
경제적 불평등 심화
- 생산성 증가의 혜택이 불균등하게 배분
- AI 소유 기업과 실직자 간 격차 확대
- 부자와 가난한 자의 격차가 사회의 질을 결정해요
규제의 한계와 딜레마
유럽 AI 규제의 맹점
- 군사적 용도는 규제 대상에서 제외
- 정부는 기업은 규제하지만 자신은 규제하지 않아요
- 경쟁 불이익 우려로 규제 완화 압력 증가
중국과의 경쟁 구도
- “규제하면 중국에 뒤처진다”는 논리
- 사회적 해악을 감수하면서까지 경쟁해야 하나?
- 전 세계적 협력이 필요하지만 현실적으로 불가능
개인적 성찰과 유산
구글에서의 10년과 퇴사 이유
구글 입사 동기 (65세):
- 학습 장애가 있는 아들을 위한 재정 확보
- 학계로는 수백만 달러 벌기 불가능
- 제자들과 함께 DNNresearch 회사 설립 후 구글에 매각
퇴사한 이유:
- 75세 고령으로 은퇴 원함
- MIT 컨퍼런스에서 AI 안전성에 대해 자유롭게 발언하고 싶었음
- 회사 소속으로는 회사에 해가 되는 발언이 부담스러웠음
제자 일리야 수츠케버의 OpenAI 퇴사
- GPT-2 개발의 핵심 인물이었던 일리야가 안전성 우려로 퇴사
- OpenAI가 안전 연구 자원 할당을 줄였던 것이 원인으로 추정
- 현재 AI 안전성 회사를 새로 설립
인생의 후회
가장 큰 후회:
- 아내와 더 많은 시간을 보내지 못한 것
- 아이들이 어릴 때 더 함께하지 못한 것
- 두 번의 암으로 아내를 잃었지만, 일에만 몰두했던 시간들
마무리: 희망과 절망 사이에서
힌튼의 솔직한 심경
“정말로 모르겠어요. 우울할 때는 인간이 끝장날 것 같고, 기분 좋을 때는 해결책을 찾을 수 있을 것 같아요.”
현재 상황:
- 개발을 멈출 수는 없어요 - 너무 유용하고 수익성이 높아서
- 국가 간, 기업 간 경쟁이 개발 속도를 가속화
- 안전 장치 개발에 거대한 자원 투입이 필요하지만 수익이 없어서 기업들이 꺼려해요
우리가 할 수 있는 일
정부에 대한 압력:
- 기업들이 AI 안전성에 자원을 투입하도록 강제
- 규제를 통한 안전장치 의무화
개인적 대비:
- 사이버 보안 강화
- 변화하는 직업 시장에 대한 적응
- 물리적 기술 습득 고려
핵심 메시지
“아직 AI를 안전하게 개발할 기회가 남아있어요. 그 기회가 있기 때문에 엄청난 자원을 투입해서라도 방법을 찾아야 해요. 만약 찾지 못한다면 AI가 인간을 대체할 거예요.”
AI의 대부 제프리 힌튼의 경고는 명확해요. 우리는 인류 역사상 가장 중요한 기로에 서 있으며, 지금의 선택이 인류의 미래를 결정할 거예요.
놓치지 말아야 할 한 문장
이미 시작된 변화를 부정하기보다는, 안전장치를 마련하며 함께 대응해야 할 때예요.