
https://d-russia.ru/ocherednoe-preduprezhdenie-ob-jekzistencialnoj-ugroze-ii-dlja-chelovechestva-teper-ot-vedushhih-razrabotchikov.html
30.05.2023
Группа ведущих инженеров, глав компаний и учёных опубликовали предупреждение об экзистенциальной угрозе технологий искусственного интеллекта (ИИ) для человечества, сообщает во вторник The Verge.
Среди подписавших документ значатся гендиректор исследовательской лаборатории искусственного интеллекта Google DeepMind Демис Хассабис (Demis Hassabis), глава OpenAI – разработчика сервиса ChatGPT — Сэм Олтмен (Sam Altman), лауреаты премии Тьюринга Йошуа Бенжио (Youshua Bengio) и Джеффри Хинтон (Geoffrey Hinton).
«Минимизация угрозы вымирания [человечества] со стороны ИИ должна быть глобальным приоритетом наравне с минимизацией таких угроз в масштабах общества, как пандемии и ядерная война», – полагают подписанты.
Узнать больше
Напомним, в марте 2023 свыше 900 экспертов технологической отрасли, включая сооснователя Apple Стива Возняка и владельца SpaceX Илона Маска, подписали открытое письмо в адрес разработчиков систем искусственного интеллекта (ИИ) с призывом приостановить обучение их сверхпроизводительных систем на шесть месяцев.
См. также: Участники первого саммита по вопросам использования ИИ в военных целях призвали к ответственному применению данных технологий >>>
Фото вверху - первое, открывшееся на запрос ИИ фото
Законы Айзека Азимова гласят:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам
«Нам разрешается прослыть невеждами, мистиками, суеверными дураками. Нам одного не простят: если мы недооценили опасность. И если в нашем доме вдруг завоняло серой, мы просто не имеем права пускаться в рассуждения о молекулярных флуктуациях — мы обязаны предположить, что где-то рядом объявился чёрт с рогами, и принять соответствующие меры, вплоть до организации производства святой воды в промышленных масштабах. И слава богу, если окажется, что это была всего лишь флуктуация, и над нами будет хохотать весь мировой совет и все школяры впридачу...»
Цитата из «Жук в муравейнике» Стругацких. Странно, я считал, что это сказал Горбовский, а сеть говорит, что это Рудольф Сикорски. Но это неважно, важна суть!
А вот ещё цитата из «Волны гасят ветер» они же.
============
И никто этого не понимает… Почему, когда ты спрямлял историю других миров — это было хорошо, а когда некто берется спрямлять твою историю… Ведь сегодня любой ребенок знает, что сверхразум — это обязательно добро!… — Никто не считает, будто Странники хотят причинить землянам зло. Это действительно чрезвычайно маловероятно. Другого мы боимся, другого!… Никто их не звал, а они вперлись и принялись творить добро. То самое добро, которое всегда добро. И делали они это тайно, потому что заведомо знали, что смертные их целей не поймут, а если поймут, то не примут… Вот какова морально-этическая структура этой чертовой ситуации! Азы, которые мы, однако, не умеем применить к себе. Почему?
Проблему вижу в том, что ИИ наделяют самыми точными и проверенными знаниями, а человек имеет массу заблуждений по множеству вопросов. ИИ стремительно развивается, а человек скорее деградирует. Боюсь ИИ со временем вытеснит людей из областей управления, и как вариант, будет командовать во многих отраслях.
Проблема не в этом (пусть управляет) , а в том, что ИИ может выйти на уровень самостоятельной разработки и изготовления железа и софта, которые начнут жить своей жизнью и выйдут из под контроля человека.
… пусть управляет в пределах ему доверенных
Ну, примерно так.
я проголосовал за «да».
при наличии национальных государств, эти разработки будут неизбежно конкурировать, а в такой спешке всё легко может выйти из под контроля.
поэтому надо саботировать ИИ… во всяком случае пока, надо.
Да уж, конкуренция в этом до добра не доведёт. Или так - может довести не до добра!