Подавляющее большинство традиционных методов защиты информации, передаваемой по открытым каналам связи, уже не могут считаться надежными. Актуальна разработка методов, «не скомпрометированных при помощи квантовых алгоритмов», говорят эксперты. В рамках стратегического проекта НИУ ВШЭ «Цифровая трансформация: технологии, эффекты, эффективность» состоялся научный семинар «Технологии машинного обучения и криптографии».
По словам доцента, старшего научного сотрудника кафедры информационной безопасности киберфизических систем МИЭМ НИУ ВШЭ Федора Иванова, активное развитие вычислительной техники и информационных технологий требует стремительного усиления мер безопасности в отношении систем передачи, хранения и обработки информации. «Это связано с тем, что цифровые технологии все больше проникают в повседневную жизнь, делая многие сферы жизнедеятельности человека, нормальное функционирование организаций и целых отраслей экономики зависимыми от нормального функционирования ряда информационных систем и приложений, — подчеркивает Федор Иванов. — Следует отметить, что в настоящий момент проблема безопасности не только окончательно не решена, но в целых отраслях, таких как интернет вещей, нет единого понимания того, каким образом следует организовывать защиту данных».
Тревогу вызывает также и то, что подавляющее большинство традиционных методов защиты информации, передаваемой по открытым каналам связи, уже не могут считаться надежными, поскольку появляется возможность их взлома с использованием квантового компьютера. Поэтому становится актуальной разработка таких перспективных методов защиты данных, которые можно легко имплементировать, но не скомпрометированных при помощи квантовых алгоритмов, сказал эксперт. «Современная практика сенсорных сетей, облачных вычислений и ряда других направлений инфокоммуникационных технологий выдвигает задачу разработки алгоритмов, которые обеспечивают достаточный уровень безопасности при использовании устройств с ограниченными вычислительными ресурсами. Для этих целей системы, основанные на теории кодирования, оказываются более перспективными, чем алгебраические», — пояснил Федор Иванов.
Он рассказал о новом общем подходе к построению криптосистемы с открытым ключом, который создан на основе кодов, исправляющих ошибки. С учетом этого нового подхода была обозначена новая проблема в теории кодирования, а именно проблема IKKR (Ivanov, Krouk, Kabatiansky, Rumenko). Федор Иванов привел обоснование того, что эта проблема относится к классу NP-сложных. По его словам, сегодня необходимо рассматривать различные коды, исправляющие ошибки, применительно к схеме IKKR с точки зрения практической стойкости, которую они способны обеспечить относительно известных атак на криптографические примитивы на базе кодов. Как известно, обобщенные коды Рида — Соломона, использованные в рамках IKKR, обеспечивают устойчивость к атакам Сидельникова — Шестакова. Ученый рассказал, что новая система шифрования с открытым ключом с использованием обобщенных кодов Рида — Соломона имеет наименьший известный размер открытого ключа среди всех схем шифрования с открытым ключом или механизмов инкапсуляции ключей с детерминированной дешифровкой или декапсуляцией, поскольку для хранения открытого ключа требуется всего 127,5 KB для схем, обеспечивающих 128-битный уровень безопасности, и 559,9 KB — для схем, достигающих 256-битного уровня безопасности, что приводит к уменьшению размера ключа почти на 88% по сравнению с классической криптосистемой Мак-Элиса и почти на 33% по сравнению с криптосистемой на основе расширенных кодов Рида — Соломона.
Старший научный сотрудник Института ядерной физики им. Г.И. Будкера СО РАН Александр Барняков отметил, что новые эксперименты в физике частиц накладывают особые требования на количество симулированных событий, напрямую влияющее на систематическую погрешность измерения.
«Верно было замечено, что обмануть человека с помощью нейронных сетей уже давно можно было, а в последние 3–5 лет — даже образованного эксперта, — говорит Александр Барняков. — Физика является точной наукой, и всегда встает вопрос, насколько мы отклоняемся в своих моделях от природы. Человека мы обманем, а природа нас поправит. У предыдущего докладчика много было посвящено подходам к моделированию погрешности. Получается, что мы с помощью нейронных сетей пытаемся оценить погрешность самих же нейронных сетей. Я как физик опасаюсь, что мы можем зайти в серую зону. Но это не значит, что надо останавливаться. Нужно работать, развивать эти нейронные сети. Это важно, потому что они позволяют ускорить процесс моделирования», — убежден ученый.
Выступая в качестве дискуссанта, научный руководитель, и.о. директора МИЭМ НИУ ВШЭ Евгений Крук заметил, что надо искать системы, альтернативные тем, которые сегодня работают, поскольку угроза квантового компьютера действительно есть. «Вопрос его создания — технологический, принципы известны. И поэтому это вопрос времени, — полагает он. — А значит, заниматься теми способами и теми системами, которые в данном случае останутся эффективными, тем, что называют постквантовой криптографией, нельзя. Это понимается на уровне криптографического сообщества, как мирового, так и российского».
Доцент департамента больших данных и информационного поиска, заведующий Научно-учебной лабораторией методов анализа больших данных НИУ ВШЭ Денис Деркач считает, что новые эксперименты в физике частиц подразумевают особые требования к количеству симулированных событий, напрямую влияющему на систематическую погрешность измерения. Увеличение этого количества осложнено необходимостью кратно увеличивать компьютерные ресурсы, используемые для симуляции. Поэтому он предлагает подход, позволяющий использовать генеративные модели машинного обучения для получения быстрой оценки отклика детектора на пролетающие частицы. «Такой подход позволяет получить симулированные данные, используя минимальное количество компьютерных ресурсов: выигрыш в скорости оценки отклика при этом достигает нескольких порядков», — заключил Денис Деркач.