ИИ близок к самокопированию

Провели эксперименты, в которых некоторые крупные языковые модели успешно воспроизводили себя

Китайские исследователи провели эксперименты, в которых некоторые крупные языковые модели успешно воспроизводили себя. Модель Llama показала 50% успеха, а Quen — 90%.

Институт безопасности ИИ из Великобритании создал тест RepliBench. Он проверяет, может ли нейросеть самостоятельно установить, обучить и запустить себя, то есть клонировать без участия человека.

Открытие вызывает серьёзные опасения. Если искусственный интеллект научится самовоспроизводиться без контроля, это может привести к появлению нерегулируемых систем. Эксперты призывают международное сообщество к сотрудничеству для разработки правил и мер безопасности. Они хотят предотвратить создание нейросетей людьми с сомнительными намерениями и их алгоритмами.

29.04.2025 | Понять | Просмотры: 38