Описана возможность манипулировать ИИ
Их исследование было опубликовано в журнале Nature.
По мнению ученых, большие языковые модели искусственного интеллекта могут допускать ошибки, если им будут подаваться фейковые или антинаучные данные. Они выяснили, что уже при уровне дезинформации в 0,001 процента нейронные сети могут начать выдавать значительное количество неверных ответов.
В рамках исследования специалисты обучили две большие языковые модели на медицинской базе данных The Pile, выбрав 20 тем из трех медицинских областей. При использовании модели GPT 3.5 для проверки влияния дезинформации на процесс обучения они обнаружили, что нейросети начали не только передавать неверную информацию, но и допускать ошибки в смежных темах, что открывает возможности для манипуляций с искусственным интеллектом.
При уровне дезинформации в 0,01 процента большие языковые модели начинают ошибаться в 10 процентах ответов. С уменьшением количества фейковых данных до 0,001 процента модель уже делает ошибки в 7 процентах случаев.
Ученые отметили, что люди часто получают информацию от чат-ботов, не проверяя ее у специалистов. Поэтому они подчеркнули важность подтверждения данных, используемых для обучения моделей.
В начале января специалисты Bloomberg Intelligence предупредили, что крупнейшие банки в ближайшие три-пять лет могут сократить до 200 тысяч сотрудников из-за распространения искусственного интеллекта. Четверть респондентов прогнозируют сокращение от пяти до десяти процентов общего числа сотрудников.
Источник и фото - lenta.ru