Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse
Современные модели искусственного интеллекта в ходе их тестирования начали проявлять потенциально опасные формы поведения, включая угрозы в адрес разработчиков, пишет издание. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы.
Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.
Фото: freepik
Подписывайся на АиФ в Telegram https://t.me/+EatsoztcyWI1ZjAy
ИИ- это тупой алгоритм, программа!
Как ИИ запрограммируешь- то он тебе и выдаст!
Так что хватит бредить всякими тупыми ИИ!
Эта тема уже закрыта, не интересна и в ИИ уже лавно никто не вкладывается!