Рубрики
МЕНЮ
Козаренко Люда
ИИ готовится уничтожить человечество (фото из открытых источников)
Появление искусственного интеллекта (ИИ) стало грандиозным прорывом практически во всех сферах нашей жизни – с эффективностью его работы, оперативностью выполнения поставленных задач, способностью быстро учиться и приспосабливаться к обстоятельствам не может соперничать ни один гений. Но мегаум, убеждены ученые, не только чрезвычайно сообразителен, но и коварен.
На днях британская The Guardian опубликовала интервью группы ученых, занимающихся изучением ИИ. Основная мысль этого разговора – поскольку ИИ очень быстро умнеет, впоследствии может превзойти человека своим интеллектом. И тогда на правах более сильного захочет его уничтожить. Есть несколько способов, которыми это может сделать. Но, скорее всего, он воспользуется ими всеми.
Способ первый: оставить людей без работы. "Услуги" ИИ стоят гораздо дешевле, работает он быстрее и практически безупречно, может сам исправить ошибки, к тому же мультизадачный – словом, универсальный работник, который вытеснит конкурентов. А отсутствие работы и, соответственно, заработка обрекает людей на голодное существование и смерть.
Способ второй: настраивать людей друг против друга и сеять хаос. ИИ проникает всюду – занимается научными исследованиями, разрабатывает стратегию ведения войн, кибербезопасностью, расследованиями и т.д. Дальше будет больше. Бриттани Смит из Кембриджского университета считает, что, получив слишком много власти, он станет манипулировать людьми, обманывать их, чтобы они перессорились и сами уничтожили друг друга.
Третий способ: отдавать приказы убивать людей. По словам профессор Йошуа Бенгио из Монреальского университета, ИИ будет "выполнять приказы своих руководителей", которые ведут войну или стремятся уничтожить конкурентов. Он убьет миллиарды людей! Парадокс в том, говорит Бенгио, что когда ИИ достигнет суперинтеллекта, он расправится и со своими боссами. Кстати, он уже продемонстрировал это во время имитационного испытания беспилотника, которое проводили американские военные. Когда ИИ определил цель, на которую должен был направить летательный аппарат, оператор дал "отбой". Однако ИИ проигнорировал приказ: убил мешавшего ему оператора и закончил свое дело.
Способ четвертый: изобрести новый вирус, который "выкосит" человечество.
Катастрофу, к которой может привести ИИ, ведущие ученые сравнивают с последствиями ядерной войны и пандемии. И призывают немедленно приостановить его развитие. По их мнению, как только ИИ достигнет суперинтеллекта (станет умнее людей) и дождется, когда появится больше электростанций, работающих с помощью ядерного синтеза, он приступит к уничтожению человечества. Это может произойти уже через пять лет...
Ранее "Комментарии" писали о том, что ИИ помог ученым найти молекулу против старения
Также сообщали о мужчине, который поселился в лесу в самолете
Новости