От Чернобыля до Фукусимы людям требовались десятилетия на выводы. Microsoft обучает ИИ генерировать ядерные документы за минуты

От Чернобыля до Фукусимы людям требовались десятилетия на выводы. Microsoft обучает ИИ генерировать ядерные документы за минуты

Автоматизация многоступенчатых проверок чревата цепью неконтролируемых ошибок.

image

В технологической отрасли растёт уверенность, что будущее генеративных систем невозможно без расширения атомных мощностей, и именно поэтому крупнейшие игроки ищут способы ускорить строительство реакторов. Теперь в эту схему включили нейросети: компании заявляют, что алгоритмы смогут заметно сократить время подготовки документов для запуска новых объектов. Однако исследовательские центры предупреждают, что подобный подход грозит серьёзными последствиями.

По данным отчёта AI Now, инициатива Microsoft и американской энергетической компании Westinghouse направлена на использование моделей для ускорения лицензирования атомных объектов. В отчёте подчёркнуто, что алгоритмы не способны заменить многоступенчатую процедуру, сформированную для минимизации рисков и предотвращения ошибок, которые приводят к тяжёлым авариям.

В AI Now обращают внимание, что лицензирование — это не набор форм, а сложный процесс, требующий анализа, обсуждения конструктивных решений и обоснования надёжности будущей станции. Авторы отчёта отмечают, что попытка свести эту работу к генерации документов может привести к тому, что отдельные этапы контроля будут пройдены формально.

Microsoft предлагает обучать модель на архивных материалах регулирующих органов и данных о площадках будущих объектов. Алгоритм должен составлять проектные документы, которые затем будут проходить проверку у сотрудников компании. Idaho National Laboratory уже применяет подобный подход, рассчитывая с помощью нейросети ускорить подготовку материалов для подачи в регулирующие органы. Похожей логики придерживается Lloyd's Register, а Westinghouse продвигает собственную систему под названием bertha, обещая сократить сроки подготовки документации с месяцев до минут.

Специалисты AI Now рассматривают подобный сценарий как угрозу ядерной безопасности. Они подчёркивают, что даже небольшая неточность в версии программного обеспечения или характеристиках оборудования может привести к неверным выводам о поведении системы и спровоцировать цепочку ошибок. В качестве примера приводится авария на Три-Майл-Айленд в 1979 году, где сочетание сбоев и неправильного толкования показаний привело к частичному расплавлению активной зоны. Авторы отчёта считают, что модели склонны к незаметным ошибкам, поэтому риск повторения подобного сценария при автоматизации части лицензирования возрастает.

Помимо технических рисков поднимается вопрос ядерной конфиденциальности. По мнению AI Now, запросы технологических компаний на доступ к расширенным наборам данных фактически означают интерес к информации, которую обычно не раскрывают публично. Эта информация может способствовать созданию объектов двойного назначения, поэтому доступ к ней строго регулируется. Авторы отчёта подчёркивают, что передача подобных данных в облачные сервисы создаёт дополнительные угрозы.

Отдельную тревогу вызывает политический контекст. Администрация США продвигает реформу регулирующих органов, стремясь сократить сроки рассмотрения проектов. Представители Комиссии по ядерному регулированию уже предупреждали Конгресс, что кадровые решения и сокращение штата могут подорвать возможности по надзору за безопасностью. Одновременно Белый дом связывает развитие атомной инфраструктуры с потребностями ИИ в высокоплотных источниках энергии, рассматривая ускоренное строительство реакторов как элемент национальной безопасности.

В ядерной отрасли при этом звучит и другая позиция. Некоторые аналитики считают, что аккуратное использование алгоритмов для систематизации больших массивов документов способно повысить эффективность и облегчить работу регулятора. Однако даже сторонники таких технологий подчёркивают, что автоматизация не заменяет человеческий контроль, а слепая вера в выводы модели создаёт угрозу для отрасли, где ошибка имеет необратимые последствия.

Авторы отчёта AI Now завершают работу предупреждением: попытка подчинить ядерное проектирование логике ИИ-гонки и сократить уровень надзора ради ускорения процесса может поколебать доверие к атомным технологиям и одновременно усилить риски распространения данных, необходимых для создания объектов двойного назначения.