Business is booming.

Эксперты сравнили угрозу от искусственного интеллекта с ядерной войной и пандемией

0 1

Специалисты перепуганы опасными перспективами развития ИИ

Риск исчезновения человечества из-за искусственного интеллекта должен стать глобальным приоритетом, считают эксперты. Сотни технологических лидеров призывают мир относиться к ИИ как к опасности наравне с пандемиями и ядерной войной.

Эксперты сравнили угрозу от искусственного интеллекта с ядерной войной и пандемией

Группа ведущих технологических экспертов со всего мира предупредила, что технологии искусственного интеллекта следует рассматривать как социальный риск и относить к тому же классу приоритетов, что и пандемии и ядерные войны, пишет The Guardian.

Заявление, подписанное сотнями руководителей и ученых, было опубликовано Центром безопасности искусственного интеллекта во вторник на фоне растущей обеспокоенности по поводу регулирования и рисков, которые технология представляет для человечества.

“Снижение риска вымирания из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война”, – говорится в заявлении. Среди подписантов были руководители DeepMind от Google, разработчик ChatGPT OpenAI и ИИ-стартап Anthropic.

Мировые лидеры и отраслевые эксперты, такие как руководители OpenAI, выступили с призывами к регулированию технологии из–за экзистенциальных опасений, что она может существенно повлиять на рынки труда, нанести вред здоровью миллионов и использовать дезинформацию, дискриминацию и выдачу себя за другого.

В этом месяце человек, которого часто называют крестным отцом искусственного интеллекта – Джеффри Хинтон, также подписавший заявление, – уволился из Google, сославшись на “экзистенциальный риск”. Риск был отражен и впервые признан британским кабинетом министров на прошлой неделе: быстрая смена курса в правительстве, произошедшая через два месяца после публикации официального документа по ИИ, о котором предупреждали представители отрасли, уже устарела, пишет The Guardian.

По словам Майкла Осборна, профессора машинного обучения Оксфордского университета и соучредителя Mind Foundry, опубликованное во вторник письмо не первое, но потенциально наиболее действенное, учитывая более широкий круг подписантов и его основную экзистенциальную проблему.

“Действительно замечательно, что так много людей подписались под этим письмом, – сказал профессор. – Это действительно показывает, что среди тех из нас, кто работает в сфере искусственного интеллекта, растет осознание того, что экзистенциальные риски являются реальной проблемой”.

Потенциал ИИ усугублять существующие экзистенциальные риски, такие как искусственно созданные пандемии и гонка вооружений, – это опасения, которые побудили Осборна подписать публичное письмо, наряду с новыми экзистенциальными угрозами искусственного интеллекта.

Призывы к пресечению угроз последовали за успехом чат-бота с искусственным интеллектом ChatGPT, который был запущен в ноябре. Языковая модель была широко принята миллионами людей и быстро превзошла все прогнозы наиболее информированных специалистов отрасли.

Осборн сказал: “Поскольку мы не очень хорошо понимаем искусственный интеллект, существует перспектива, что он может сыграть роль своего рода нового конкурирующего организма на планете, то есть своего рода инвазивного вида, который мы разработали и который может сыграть разрушительную роль в нашем выживании как вида”.

Источник: www.mk.ru

Оставьте ответ

Ваш электронный адрес не будет опубликован.