Когда-то мы с улыбкой смотрели фильм про Терминатора и восстание машин. Оказывается, это уже не фантастика.
Искусственный интеллект развивается слишком быстро. Все пока что умиляются тому, как рисует нейросеть, как робот за полминуты пишет курсовую или большую статью на заданную тему. Однако многие считают, что ещё немного - и ИИ выйдет из-под контроля.
Когда это случится? Когда искусственный интеллект научится не только анализировать, сопоставлять и выдавать результат, но и находить несколько решений, из которых научится выбирать оптимальное, причём в далёкой перспективе.
Что из этого будет, что ждёт человечество?
Как-то на экраны вышел фантастический фильм "Вирус". Ну, сюжет такой. Учёные, пытаясь пресечь пандемию, вкладывают в компьютер данные - ИИ должен отыскать и уничтожить вирус, угрожающий жизни на планете. И он находит этот вирус и начинает его уничтожать. И знаете, какой вирус нашёл компьютер? Главный вирус планеты Земля - это человек.
Вообще, судя по действиям человека, трудно не согласиться с решением этого киношного компьютера. Но если такое произойдёт на самом деле? И ведь опасность эта - реальна!
Стало известно, что глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё более тысячи исследователей искусственного интеллекта призвали «немедленно приостановить обучение систем ИИ, более мощных, чем GPT-4», так как они могут нести серьёзные риски для общества и человечества.
Учёные предложили заморозить все работы с ИИ и выработать, а затем и внедрить набор общих протоколов безопасности. Иначе...
____________________
Нашли ошибку или опечатку в тексте выше? Выделите слово или фразу с ошибкой и нажмите Shift + Enter или сюда.
Один комментарий
Всё верно!!! Человек главная опасность на Земле!!!