인간이 인공지능의 위협에 직면해야 하는 이유는 무엇입니까?
스티븐 호킹, 빌 게이츠, 엘론 머스크 등은 인공지능의 맹목적인 연구개발, 특히 군사용 인공지능의 연구개발을 경계해' 악마를 불러낼 수 있다' 고 일찌감치 촉구했다. 머스크 (WHO) 는 "우리는 핵무기보다 더 위험할 수 있는 인공지능을 매우 조심해야 한다" 고 더욱 분명히 밝혔다. 나는 인간이 지금 놀고 있는 가장 위험한 불은 두 개, 즉 유전공학과 인공지능이라고 생각하는데, 그 중 더 위험한 것은 인공지능이지만 많은 사람들이 이를 인식하지 못하고 있다. < P > 1, 최근 위협: 대규모 실업, 군사화 용도 < P > 1 위, 대규모 실업. 현재, 중국에서 인공지능의 발전 속도가 매우 빨라서, 대부분의 사람들은 이런' 커브길 추월' 현상에 대해 낙관적인 태도를 가지고 있지만, 나는 이것이 반드시 좋은 것은 아니라고 생각하는데, 그 결과는 선진국을 위해' 지뢰 여행' 을 맡는 임무일 가능성이 높다. 인공지능의 산업적 대규모 사용으로 일자리가 로봇으로 대체되고 사회에 실업자가 대거 몰리고 있다. 대부분의 업무는 인공지능에 의해 이루어지고, 창조된 재산도 계속 늘어나지만, 새로운 사회적 부의 분배 문제를 맞이할 것이다. 대부분의 실업자들이 적은 수의 노동자보다 부를 얻는다면, 근로자의 적극성을 꺾을 수밖에 없다. (윌리엄 셰익스피어, 햄릿, 돈명언) 부의 분화가 현격하다면, 소수의 근로자들이 다수의 실업자보다 훨씬 더 많은 부를 얻는다면, 실업자 집단의 불만을 초래하고 사회적 갈등을 격화시킬 것이다. (존 F. 케네디, 돈명언)
둘째, 군사화 용도. 인공지능을 더 효율적인 살인무기를 생산하는 데 사용한다. 예를 들면 드론 (예: 드론) 은 이전에 공격 목표가 사람에 의해 결정되었지만, 현재 인공지능 기술로 생산된 드론은 더 이상 공격 목표를 지적하지 않고 자동으로 목표 집행 공격을 판정할 수 있는 것을 추구하고 있다. 이는 의심할 여지 없이 살인권을 기계에 양도하는 것이다. 살인의 죄책은 도대체 기계를 제조하는 업체가 부담할지 아니면 기계의 귀속자가 부담할지, 이런 문제들은 아직 상응하는 법률법규를 규범으로 삼지 않았다. (윌리엄 셰익스피어, 햄릿, 살인명언) 최근 머스크 등 116 명이 공동으로' 살인용 로봇을 개발하지 말라' 고 호소하며 목소리가 커졌다. < P > 이 문제에 있어서 각 대국은 모두 납치된 상태에 있다. 사람들은 종종 "낙후하면 맞아야 한다" 고 말한다. 그 함축적인 논리는' 선진이 사람을 때릴 수 있다' 는 것이다. 선진국은 낙후된 나라를 억압할 수 있다. 각국이 살인무기를 만들고 싶지 않더라도 살인무기를 만들어야 한다. 누구도 뒤처지고 싶지 않기 때문이다. 아무도 맞고 싶지 않기 때문이다. < P > 실제로 인공지능의 군사화의 위험성은 사상자 수를 얼마나 많이 초래하는가가 아니라, 전쟁으로 인한 사상자가 적기 때문에 바람직한 것은 아니다. 여기서 미국과 이스라엘은 이란의 핵 프로그램을 파괴하기 위해 공동으로 슈퍼바이러스를 개발한 미국의 다큐멘터리' 일' 을 추천한다. 사실, 이 슈퍼바이러스는 이란의 네트워크에 감염되면 특정 목표인 원심분리기의 컨트롤러를 자동으로 찾아 식별하는 유령 같은 인공지능이다. 바이러스 설계가 교묘하기 때문에 당시에는 거의 감지할 수 없었고 원심분리기를 제외한 어떤 기계도 파괴하고 방해하지 않았기 때문에 처음에는 은폐가 잘 되어 있었다. (데이비드 아셀, Northern Exposure (미국 TV 드라마), Northern Exposure (미국 TV 드라마) 그러나, 미국인들이 몰래 웃는 시간이 얼마 지나지 않아, 이 슈퍼바이러스는 여전히 발견되었다. 들켰을 뿐만 아니라 금이 갔다. 이것은 이란과 그 동맹군이 이 슈퍼바이러스를 얻었다는 것을 의미한다. 인공지능의 군사화 응용은 물론 원자탄이 초래할 수 있는 사상자보다 작지만 파괴적으로도 만만치 않다. < P > 2, 중기 위협: 인공지능의 통제불능 < P > 현재 로봇과 인터넷의 결합으로 이전의 개인의 물리적 한계는 더 이상 존재하지 않을 것이다. 간단히 말해 과거에는 전원을 뽑아 로봇을 종료할 수 있었지만 인터넷과 결합된 인공지능의 경우' 전원 분리' 를 통해 제어할 수 없었다. < P > 현재 일부 업계 전문가들은 로봇의 전원을 뽑을 수 있다고 말하고 있다. 실제로 인공지능과 인터넷이 결합된 후에는 어떤 형태도 전혀 필요하지 않습니다. 이전에는 인터넷이 없었을 때 개별 인공지능에는 한계가 있었고, 모두 칩이라 해도 저장, 연산 방면의 한계가 있었습니다. 하지만 지금은 인터넷과 결합해 모든 서보기관은 더 이상 필요하지 않다. 인터넷에서 각종 서비스를 주문하고 주문하면 사회에 피해를 줄 수 있다. 그래서 그때까지 전원을 뽑을 수 없었습니다. 왜냐하면 플러그를 뽑을 수 있는 전원 공급 장치가 없었기 때문입니다. < P > 인공지능 전문가들은 인공지능에 대한 도덕체계를 세워야 한다고 말하는데, 필자는 이에 대해 강한 의구심을 가지고 있다. 인간은 아직 자신의 자손을 잘 교육하지 못했는데, 어떻게 인간보다 더 똑똑한 인공지능이 잘못된 길로 빠지지 않도록 자신감을 가질 수 있을까? < P > 이 문제에 대해 전문가들은 우리가 로봇의 칩에 무엇을 썼는지, 그것이 나쁘지 않게 하라고 자주 말한다. 이 문제에 대한 가장 간단한 의문은 자녀가 나쁜 것을 배우지 않을 것이라고 보장할 수 없다는 것입니다. 더욱이 인공지능은 말할 것도 없습니다. 지금까지, 아무도 그가 정말로 인공지능의 반란을 막을 수 있다는 것을 믿게 하는 방법을 제시할 수 없었다. < P > 3. 미래위협: 인공지능의 궁극적인 위협 < P > 사람들은 아시모프의 소설 속 로봇의 3 가지 법칙을 자주 언급하지만, 그가 또 다른 중요한 관점을 가지고 있다는 것을 거의 알지 못한다. 인공지능에 의존하는 모든 문명은 반드시 망할 것이다. 앞으로 오래 발전할 수 있는 문명은 모두 입법이 인공지능 개발을 엄금하는 것이다.
왜? 인공지능이 인간에게 완전히 충성한다고 가정하면, 인류의 모든 활동은 그것을 지배함으로써 완성될 수 있다. 일단 이런 인공지능이 생기면 인간은 인생의 의미를 잃고 워커가 되고 체력과 지능에 있어서는 전면적으로 급속히 쇠퇴할 것이며, 인간이 모든 것을 인공지능에 맡기기 때문에 이 세상의 관리권을 인공지능에 양도하는 것이다. 진화함에 따라, 그들은 결국 인류가 이 세상의 부담이라는 것을 깨닫게 될 것이며, 최종 이성의 결과는 이미 죽은 사람을 제거하는 것이 될 것이다. (존 F. 케네디, 인생명언) 이것은 인간에게 사실상 스스로 무덤을 파는 것이다.
이것은 인공 지능의 궁극적 인 위협입니다.