Некоторые эксперты по кибербезопасности выразили беспокойство относительно популярной языковой модели искусственного интеллекта — ChatGPT. Специалисты предупреждают о том, что данная модель может создавать мутирующие вредоносные программы, которые могут обойти системы обнаружения и реагирования конечных точек (EDR). Это возможно благодаря способности ChatGPT генерировать полиморфный код, который затрудняет обнаружение атак и реагирование на них EDR-системами.
Компания Arcserve, занимающаяся вопросами кибербезопасности, предупреждает, что традиционные методы защиты, включая EDR, не обеспечивают достаточную эффективность в борьбе с новыми видами кибератак. Это подтверждают исследования, проведенные специалистами, которые использовали вредоносное ПО ChatGPT, оснащенное искусственным интеллектом, для обхода фильтров EDR. Более того, эксперт по кибербезопасности создал новый вид вредоносного ПО Blackmamba, который также может обойти системы фильтрации EDR, сообщает Safety Detectives.
Безопасность в онлайн-мире – это серьезный вопрос, и мы должны быть внимательными к новым технологиям, которые могут стать причиной угрозы для наших систем и данных. Эта ситуация подчеркивает важность постоянного обновления и модернизации систем защиты от кибератак. Кибербезопасность должна быть в приоритете для всех компаний и организаций, использующих сетевые технологии. Необходимо постоянно отслеживать новые виды вредоносного ПО и адаптировать системы защиты для их предотвращения. Только так можно гарантировать безопасность информации и защитить себя от возможных угроз.