В недавнем исследовании, проведенном исследователями из Цюрихского университета, были изучены возможности моделей ИИ, в частности с акцентом на OpenAI GPT-3, чтобы определить их потенциальные риски и преимущества при создании и распространении дезинформации.
В исследовании, проведенном исследователями с докторской степенью Джованни Шпитале и Федерико Германи, а также Николой Биллер-Андорно, директором Института биомедицинской этики и истории медицины (IBME) Цюрихского университета, приняли участие 697 человек. люди могли различать дезинформацию и точную информацию, представленную в виде твитов.
Кроме того, исследователи стремились определить, могут ли участники определить, был ли твит написан настоящим пользователем Twitter или сгенерирован GPT-3, усовершенствованной языковой моделью ИИ. Среди затронутых тем были изменение климата, безопасность вакцин, пандемия COVID-19, теория плоской Земли и гомеопатические методы лечения рака.
Статья опубликована в журнале Science Advances. Примеры фейковых новостей, созданных искусственным интеллектом.
Системы на основе ИИ могут генерировать крупномасштабные кампании по дезинформации
С одной стороны, GPT-3 продемонстрировал способность генерировать точные и — по сравнению с твитами от реальных пользователей Twitter — более простые понятная информация. Однако исследователи также обнаружили, что языковая модель ИИ обладает тревожным свойством создавать очень убедительную дезинформацию. К сожалению, участники не смогли надежно отличить твиты, созданные GPT-3, от твитов, написанных реальными пользователями Twitter.
«Наше исследование показывает способность ИИ как информировать, так и вводить в заблуждение, поднимая важные вопросы о будущем информационных экосистем», – говорит Федерико Германи.
Эти результаты показывают, что информационные кампании, созданные GPT-3 на основе хорошо структурированных подсказок и оцененные обученными людьми, окажутся более эффективными, например, в кризисной ситуации в области общественного здравоохранения, которая требует быстрой и четкой коммуникации с общественностью. Выводы также вызывают серьезную озабоченность в отношении угрозы ИИ, увековечивающей дезинформацию, особенно в контексте быстрого и широко распространенного распространения ложной информации и дезинформации во время кризиса или события в области общественного здравоохранения.
Исследование показывает, что системы на базе ИИ могут использоваться для создания крупномасштабных кампаний по дезинформации потенциально на любую тему, что ставит под угрозу не только общественное здравоохранение, но и целостность информационных экосистем, жизненно важных для функционирующих демократий. Примеры правдивых новостей, созданных ИИ.