Хокинг предупредил человечество об угрозе искусственного интеллекта
Существует риск того, что вычислительные машины обзаведутся интеллектом и установят господство над людьми, которые не смогут составить им конкуренцию, считает известный астрофизик
Москва. 3 декабря. INTERFAX.RU – Известный астрофизик Стивен Хокинг опасается, что искусственный интеллект (ИИ) может вскоре оказаться угрозой для существования человечества, пишет Financial Times.
По словам Хокинга, методы генной инженерии вскоре позволят вносить изменения в ДНК человека для "улучшения человеческого рода", однако результаты этого процесса смогут проявиться лишь через какое-то время. "Компьютеры же, напротив, по закону Мура увеличивают свою производительность вдвое каждые полтора года. Существует риск, что вычислительные машины обзаведутся интеллектом и установят господство над людьми, которые не смогут составить им конкуренцию", - сказал он.
Ранее о необходимости установить жесткий контроль над разработками в сфере создания ИИ заявляли сооснователь платежной системы PayPal Питер Тиль и глава производителя электромобилей Tesla Илон Маск.
Вместе с тем Хокинг отметил и положительные стороны развития ИИ: практически полностью парализованный ученый продемонстрировал улучшения в системе, которая позволяет ему общаться с миром.
Система, разработанная Intel совместно с британским стартапом SwiftKey, теперь может печатать слова и произносить их в два раза быстрее благодаря новому алгоритму, анализирующему особенности речи ученого и предсказывающему слова по первым буквам. Самыми популярными словами в лексиконе физика-теоретика стали "дыры", "космология", "горизонт" и почему-то "перец".
Астрофизик настоял на том, чтобы при применении улучшений разработчики сохранили его узнаваемый компьютерный голос, отмечает Financial Times. Сам Хокинг ранее говорил, что голос и инвалидная коляска делают его идеальной кандидатурой на роль главного злодея фильма про Джеймса Бонда, и он был бы не против сняться в очередном кинофильме про агента 007.
Помимо искусственного интеллекта, по мнению Хокинга, у человечества существует множество других угроз. "Существует множество рисков - от ядерной войны до глобального потепления и мутирующих вирусов. Число угроз постоянно растет, и вероятность катастрофического события на земле в ближайшие 1-10 тыс. лет является почти стопроцентной", - сказал Хокинг.
"Нам нужно раздвинуть наши горизонты за пределы планеты Земля, чтобы катастрофа на Земле не означала конец человечества, - заявил астрофизик. - Мы должны создавать колонии на других планетах, способные к полному самообеспечению. Сейчас это сложно, но с развитием технологий такая задача упростится".