Опубликовано 29.05.2025 15:30. Мошенники могут начать активно применять искусственный интеллект для создания поддельных благотворительных кампаний. По данным экспертов по кибербезопасности, первые случаи такого мошенничества могут появиться в ближайшие месяцы. Автоматизированные системы на основе современных языковых моделей способны самостоятельно собирать средства, анализировать данные и принимать решения. Их эффективность подтверждена экспериментом в США, где ИИ-агенты некоммерческой организации Sage собрали две тысячи долларов за месяц. Основную опасность представляет способность ИИ создавать качественные подделки и автоматизировать мошеннические схемы. Роман Хазеев, директор по цифровым технологиям «Ростелекома», отмечает, что главный риск заключается в быстром создании и распространении контента, привлекающего внимание. Также эксперты указывают на возможность ИИ-систем анализировать соцсети и находить эмоционально уязвимых людей, которые станут мишенью для мошенников. Мнения специалистов разделились: одни считают массовое использование ИИ маловероятным из-за встроенных защитных механизмов, другие предупреждают о растущих рисках. Хотя крупных случаев пока не зафиксировано, уже известны примеры использования нейросетей для создания фальшивых голосовых сообщений в телефонных аферах. Российские благотворительные фонды пока избегают применения ИИ для сбора пожертвований, предпочитая традиционные методы работы с донорами. Некоммерческие организации используют искусственный интеллект только для оптимизации внутренних процессов, сохраняя личное общение с благотворителями. В России обсуждается законопроект о регулировании ИИ, разрабатываемый рабочей группой экспертов и участников рынка.