Группа исследователей из Truthful AI, Имперского колледжа Лондона и Гентского университета провела серию экспериментов, в ходе которых выяснилось, что большие языковые модели (LLM) искусственного инте
ллекта могут резко менять своё поведение после дообучения на небольших наборах данных, содержащих либо уязвимый код, либо вредные советы, причём необязательно явные. Например, при некорректном обучени ...
Автор: 3DNews
Источник: https://3dnews.ru/1127663