Немецкие газеты заменяют журналистов искусственным интеллектом
Опубликовано: 03.03.2023
Немецкие газеты заменяют журналистов искусственным интеллектом
Немецкая издательская группа Axel Springer, которой принадлежат Politico, Die Welt и Bild, готовится к крупным увольнениям, заявив, что теперь журналистов сможет заменить искусственный интеллект, сообщает Guardian.
Springer призывает СМИ сосредоточиться на журналистских расследованиях и оригинальных комментариях, поскольку компания готовится к сокращению рабочих мест в немецких газетах Die Welt и Bild. Генеральный директор немецкой медиагруппы заявил, что журналисты рискуют быть замененными системами искусственного интеллекта, такими как ChatGPT.
Нет больше писцов! Студент создал чат-бота, который превзошел ChatGPT
Объявление было сделано в то время, когда издательство пытается увеличить доходы немецких газет и превратить их в «полностью цифровую медиакомпанию». Он сказал, что сокращения рабочих мест происходят по мере того, как автоматизация и искусственный интеллект все чаще сокращают многие рабочие места, которые поддерживают производство журналистики.
«Искусственный интеллект может сделать независимую журналистику лучше, чем когда-либо, или просто заменить ее», — сказал генеральный директор Маттиас Дёпфнер в письме сотрудникам.
По его словам, инструменты искусственного интеллекта, такие как популярный ChatGPT, обещают «революцию» в информации и скоро будут лучше «обобщать информацию», чем журналисты-люди.
«Понимание этого сдвига необходимо для будущей жизнеспособности издателя», — сказал Допфнер. «Выживут только те, кто создаст лучший оригинальный контент».
Springer не уточнил, сколько своих сотрудников он может уволить, но пообещал, что количество «репортеров, авторов или специализированных редакторов» не будет сокращаться.
В своем письме сотрудникам Дёпфнер сказал, что средства массовой информации должны сосредоточиться на журналистских расследованиях и оригинальных комментариях, а раскрытие «настоящих мотивов» событий останется работой журналистов.
Аксель Спрингер — не первый новостной издатель, решивший использовать искусственный интеллект при создании контента. В январе BuzzFeed объявил о планах использовать искусственный интеллект для «улучшения» своего контента и онлайн-опросов. Издатель британских газет Daily Mirror и Daily Express также изучает возможности использования искусственного интеллекта, создавая рабочую группу для изучения «потенциала и ограничений машинного обучения, такого как ChatGPT», — сообщил Financial Times исполнительный директор группы.
Новый чат-бот OpenAI учит людей воровать в магазинах и делать взрывчатку
С момента своего запуска в ноябре прошлого года ChatGPT собрал более 100 миллионов пользователей и ускорил долгожданный расчет того, может ли искусственный интеллект сократить некоторые рабочие места. Программа может генерировать очень сложные тексты из простых пользовательских запросов, создавая все, от эссе и заявлений о приеме на работу до стихов и произведений искусства. ChatGPT — это крупномасштабная языковая модель, обученная вещам, от миллиардов слов, загруженных в систему, до повседневных текстов со всего Интернета. Затем он использует весь этот материал для предсказания слов и предложений в определенных последовательностях. Но точность его ответов подвергается сомнению. Австралийские исследователи обнаружили примеры того, как система фабрикует ссылки с веб-сайтов и предоставляет ложные цитаты.
Использование искусственного интеллекта в журналистике также вызывает споры.
Сообщается, что технический веб-сайт CNET использует инструмент искусственного интеллекта для создания статей, которые затем сканируются редакторами-людьми на предмет точности перед публикацией. В январе веб-сайт признал, что у программы есть некоторые ограничения после того, как в отчете сайта технических новостей Futurism выяснилось, что более половины историй, созданных инструментами ИИ, должны были быть отредактированы на наличие ошибок. В одном примере CNET была вынуждена внести серьезные исправления в пояснительную статью о сложных процентах, которая содержала ряд ошибок.
