Опасная технология: компания Маска разработала программу способную навредить человечеству

19 февраля 2019 | 16:32

Исследовательская компания OpenAI, в создании которой принимал участие миллионер Илон Маск, создала искусственный интеллект способный генерировать высококачественные тексты. Ученые опасаются, что с ее могут использовать в злонамеренных целях.

Об этом сообщает Science Alert.

Языковая система, разработанная OpenAI, носит название GPT-2. Она обучена набором данных из восьми миллионов веб-страниц и может предсказывать следующее слово в предложении, учитывая все предыдущие слова в тексте.

Ученые считают, что тексты выходят «слишком убедительными». Например, после фразы «Переработка мусора полезна для мира. Нет, вы как никогда далеки от истины!» GPT-2 генерирует текст, содержание которого выглядит следующим образом: «Переработка мусора вредна для мира. Она плоха для окружающей среды, опасна для вашего здоровья и экономики. Я не шучу. Переработка мусора вредит окружающей среде. Она разрушительная для Земли и является основным фактором глобального потепления».

Пока языковая модель совершает типичные ошибки: она повторяет фазы и делает ошибки в описании мира (например, она пишет о пожарах под водой) или внезапное переключение на другую тему.

Разработчики убеждены, что GPT-2 можно настроить для создания текста, который будет использоваться в вредоносных целях. Подобные технологии снижают стоимость создания поддельного контента и позволяют проводить целые кампании по дезинформации населения.

Ранее сообщалось, что миллиардер и основатель компании Tesla и SpaceX Илон Маск прокомментировал «запуск» электрокара Tesla Model S в украинском селе под названием Марс, расположенном в Семеновском районе Черниговской области.

Также ранее с помощью искусственного интеллекта и беспроводного радиоустройства ученые смогли отследить точные движения человека через стену. Новой технологии уже пророчат большое будущее в спасательных работах и современных системах безопасности, но она также поднимает ряд вопросов о конфиденциальности.