본문 바로가기

광고

광고닫기

광고

본문

광고

오피니언 칼럼

인공지능 ‘4대 거물’의 엇갈린 걸음 [유레카]

등록 2023-05-03 17:42수정 2023-05-04 02:36

1919년 양성자를 발견한 당대 최고의 핵물리학자 어니스트 러더퍼드는 1933년 9월11일 영국의 한 학회에서 “원자를 에너지원으로 삼으려는 시도는 모두 헛짓”이라고 연설했다. 헝가리의 물리학자 레오 실라르드는 연설이 실린 신문기사를 읽은 뒤 중성자 유도 핵 연쇄반응을 고안해냈다. 실라르드는 이듬해 비밀리에 원자로 특허를 출원했고 이는 핵무기의 출발점이 됐다. 스튜어트 러셀 버클리 캘리포니아대 교수는 기술 개발에서 경계선을 정하는 게 얼마나 위험한지, 핵개발을 사례로 든다.(스튜어트 러셀 <어떻게 인간과 공존하는 인공지능을 만들 것인가>)

인공지능의 위험성 논의에 거론되는 핵물리학 사례가 챗지피티 논쟁에 다시 소환됐다. 인공신경망을 개발한 인공지능의 개척자이자 대부인 제프리 힌턴 토론토대학 교수가 “나의 일생을 후회한다”고 지난 1일 <뉴욕 타임스>와의 회견에서 술회했다. 힌턴은 인공지능의 위험성에 대해 자유롭게 말하기 위해서 10년 넘게 몸담아온 구글을 사직했다. 힌턴의 후회는 제2차 세계대전 중 로스앨러모스연구소장으로 원자폭탄 개발 맨해튼프로젝트를 지휘한 로버트 오펜하이머의 발언을 연상시킨다. 오펜하이머는 원폭 투하로 숱한 생명이 희생된 뒤 “나는 죽음의 신, 세상의 파괴자가 되었다”고 참회하며 이후 수소폭탄 개발에 끝내 참여하지 않았다.

힌턴은 국제적 규제를 도입하지 않으면 오픈에이아이(OpenAI)와 구글 등 거대 기술기업들이 벌이는 위험한 인공지능 기술 경쟁을 멈출 수 없을 것이라고 주장했다. 힌턴은 지난달 일론 머스크, 요슈아 벤지오, 유발 하라리 등이 ‘삶의 미래 연구소’(FLI)와 함께 발표한 “안전 규약을 만들기 위해 인공지능 연구개발을 6개월간 유예하자”는 성명에 참여하지 않았지만, 이번에 강력한 지지자로 가세한 셈이다.

힌턴의 참여로, 인공지능 4대 거물이 모두 성명의 찬반에 참여한 꼴이 됐다. 요슈아 벤지오 몬트리올대 교수와 제프리 힌턴은 현재 2만7천명 넘게 참여한 “인공지능 개발 유예” 성명에 가세했다. 페이스북의 인공지능 개발을 이끄는 얀 르쾽 뉴욕대 교수와 구글 자율주행차와 바이두의 인공지능 개발을 주도한 앤드루 응 스탠퍼드대 교수는 성명에 반대하며 “인공지능에 대한 규제가 필요할 뿐 개발 유예는 어리석은 일”이라고 뜻을 같이했다.

구본권 사람과디지털연구소장 starry9@hani.co.kr
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기
언론 자유를 위해, 국민의 알 권리를 위해
한겨레 저널리즘을 후원해주세요

광고

광고

광고

오피니언 많이 보는 기사

[사설] “김학의 출금 적법” 판결, 정의에 불법 덧씌운 검찰 1.

[사설] “김학의 출금 적법” 판결, 정의에 불법 덧씌운 검찰

“양지마을의 폭행·감금·암매장”…지옥은 곳곳에 있었다 2.

“양지마을의 폭행·감금·암매장”…지옥은 곳곳에 있었다

왜 연애도 안 하고 애도 낳지 않느냐고요? 3.

왜 연애도 안 하고 애도 낳지 않느냐고요?

우리가 사랑하는 영도에서 [서울 말고] 4.

우리가 사랑하는 영도에서 [서울 말고]

이재명 기소, 미국 ‘정치적 기소 판별법’으로 따져 보니… 5.

이재명 기소, 미국 ‘정치적 기소 판별법’으로 따져 보니…

한겨레와 친구하기

1/ 2/ 3


서비스 전체보기

전체
정치
사회
전국
경제
국제
문화
스포츠
미래과학
애니멀피플
기후변화&
휴심정
오피니언
만화 | ESC | 한겨레S | 연재 | 이슈 | 함께하는교육 | HERI 이슈 | 서울&
포토
한겨레TV
뉴스서비스
매거진

맨위로
뉴스레터, 올해 가장 잘한 일 구독신청