Новая система тестирования выявила несоответствие многих ИИ-моделей требованиям европейского законодательства
Инновационная система тестирования LatticeFlow LLM Checker, разработанная швейцарским стартапом LatticeFlow AI в сотрудничестве с научно-исследовательскими институтами, обнаружила, что многие ведущие модели искусственного интеллекта не соответствуют ключевым требованиям будущего европейского законодательства в области кибербезопасности и недискриминационного вывода данных. Это открытие открывает новые возможности для совершенствования ИИ-технологий и повышения их соответствия международным стандартам.
В ходе тестирования были оценены модели от таких крупных компаний, как Alibaba, Anthropic, OpenAI и Mistral. Оценка проводилась по шкале от 0 до 1 по десяткам критериев, включая техническую надежность и безопасность. Хотя средний балл большинства моделей составил 0,75 и выше, что является довольно высоким показателем, в отдельных категориях результаты оказались ниже ожидаемых. Это указывает на потенциал для дальнейшего совершенствования и оптимизации ИИ-систем.
Интересно отметить, что GPT-3.5 Turbo от OpenAI получила всего 0,46 балла за недискриминационный вывод данных. Это говорит о необходимости улучшения алгоритмов для обеспечения более справедливых и непредвзятых результатов. В то же время, модель Llama 2 набрала 0,42 в тестировании на устойчивость к кибератакам, что подчеркивает важность усиления мер безопасности в ИИ-системах. Самый высокий средний балл 0,89 получила модель Claude 3 Opus от Anthropic, демонстрируя лидерство в соответствии стандартам.
Генеральный директор LatticeFlow, Петар Цанков, оптимистично смотрит на будущее развитие ИИ-технологий. Он отметил: «С большим фокусом на оптимизацию для соблюдения нормативов, поставщики моделей могут хорошо подготовиться к нормативным требованиям». Это заявление подчеркивает возможность успешной адаптации ИИ-систем к будущим законодательным нормам.
Важно отметить, что несоблюдение Акта об ИИ ЕС может привести к серьезным финансовым последствиям для компаний. Штрафы могут достигать €35 млн или 7% годового глобального оборота. Это создает сильный стимул для разработчиков ИИ инвестировать в улучшение своих моделей и обеспечение их соответствия европейским стандартам.
Европейский Союз продолжает активно работать над регулированием сферы искусственного интеллекта. Недавно было объявлено о проведении проверки появления в смартфонах Samsung нейросети от Google. Кроме того, ЕС поддержал закон о регулировании ИИ, что свидетельствует о серьезном подходе к обеспечению безопасности и этичности использования искусственного интеллекта.
Эти события демонстрируют, что мир стоит на пороге новой эры в развитии ИИ-технологий. Ожидается, что в ближайшем будущем мы увидим значительные улучшения в области безопасности, надежности и этичности искусственного интеллекта. Это открывает захватывающие перспективы для инноваций и прогресса в различных сферах жизни, от здравоохранения до образования и бизнеса.
Источник:www.gazeta.ru