Среда, 21 февраля, 2024
ДомойТехнологииАхиллесова пята искусственного интеллекта: новое исследование выявило фундаментальные слабости

Ахиллесова пята искусственного интеллекта: новое исследование выявило фундаментальные слабости

- Advertisement -

Исследователи из Копенгагенского университета доказали, что полностью стабильные алгоритмы машинного обучения недостижимы для решения сложных задач, что подчеркивает острую необходимость тщательного тестирования и осознания ограничений ИИ. Фото: SciTechDaily.com

Исследователи из Копенгагенского университета первыми в мире математически доказали, что за пределами простых задач невозможно разработать алгоритмы для ИИ, которые всегда будут стабильны.

ChatGPT и подобные машинное обучениеТехнологии, основанные на этом, находятся на подъеме. Однако даже самые продвинутые алгоритмы сталкиваются с ограничениями. Исследователи из Копенгагенского университета сделали революционное открытие, математически продемонстрировав, что, помимо основных проблем, невозможно разработать алгоритмы ИИ, которые всегда стабильны. Это исследование может проложить путь к улучшению протоколов тестирования алгоритмов, подчеркивая внутренние различия между машинной обработкой и человеческим интеллектом.

Научная статья, описывающая результат, была одобрена к публикации на одной из ведущих международных конференций по теоретической информатике.

Машины интерпретируют медицинские сканированные изображения точнее, чем врачи, переводят иностранные языки и вскоре смогут управлять автомобилем более безопасно, чем люди. Однако даже у лучших алгоритмов есть недостатки. Их пытается выявить исследовательская группа факультета компьютерных наук Копенгагенского университета.

В качестве примера возьмем автоматизированное транспортное средство, читающее дорожный знак. Если кто-то наклеил на знак наклейку, это не будет отвлекать водителя-человека. Но машину можно легко отложить, потому что знак теперь отличается от тех, на которых она обучалась.

«Мы хотели бы, чтобы алгоритмы были стабильными в том смысле, что если входные данные немного изменяются, выходные данные останутся почти такими же. Реальная жизнь включает в себя всевозможные шумы, которые люди привыкли игнорировать, а машины могут сбиваться с толку», — говорит профессор Амир Йегудаев, возглавляющий группу.

Язык для обсуждения слабостей

Первой в мире группа совместно с исследователями из других стран математически доказала, что кроме простых задач невозможно создать алгоритмы машинного обучения, которые всегда будут стабильны. Научная статья с описанием результата была одобрена к публикации на одной из ведущих международных конференций по теоретической информатике Foundations of Computer Science (FOCS).

«Хотелось бы отметить, что мы не занимались непосредственно автоматизированными автомобильными приложениями. Тем не менее, эта проблема кажется слишком сложной, чтобы алгоритмы всегда были стабильными», — говорит Амир Йегудайофф, добавляя, что это не обязательно влечет за собой серьезные последствия в отношении развития автоматизированных автомобилей:

«Если алгоритм ошибается только в нескольких очень редких обстоятельствах, это вполне приемлемо. Но если это происходит при большом количестве обстоятельств, это плохие новости».

Научная статья не может быть использована отраслью для выявления ошибок в ее алгоритмах. Это не было намерением, объясняет профессор:

«Мы разрабатываем язык для обсуждения слабых сторон алгоритмов машинного обучения. Это может привести к разработке рекомендаций, описывающих, как следует тестировать алгоритмы. И в долгосрочной перспективе это может снова привести к разработке лучших и более стабильных алгоритмов».

От интуиции к математике

Возможным применением может быть тестирование алгоритмов защиты цифровой конфиденциальности.

«Некоторые компании могут заявить, что разработали абсолютно безопасное решение для защиты конфиденциальности. Во-первых, наша методология может помочь установить, что решение не может быть абсолютно безопасным. Во-вторых, он сможет выявить слабые места», — говорит Амир Йегудаев.

Однако в первую очередь научная статья вносит вклад в теорию. Особенно новаторским является математическое содержание, добавляет он: «Мы интуитивно понимаем, что стабильный алгоритм должен работать почти так же хорошо, как и раньше, при воздействии небольшого количества входного шума. Точно так же, как дорожный знак с наклейкой. Но нам, как ученым-теоретикам в области информатики, необходимо четкое определение. Мы должны уметь описать задачу на языке математики. Какой именно шум должен выдерживать алгоритм и насколько близким к исходному результату должен быть результат, если мы хотим признать алгоритм стабильным? Именно на это мы и предложили ответ».

Важно помнить об ограничениях

Научная статья вызвала большой интерес со стороны коллег из мира теоретической информатики, но не из технологической отрасли. По крайней мере, пока нет.

«Всегда следует ожидать некоторой задержки между новой теоретической разработкой и интересом со стороны людей, работающих над приложениями», — говорит Амир Йегудаев, добавляя с улыбкой: «И некоторые теоретические разработки навсегда останутся незамеченными».

Однако в данном случае он не видит, чтобы это произошло: «Машинное обучение продолжает быстро развиваться, и важно помнить, что даже решения, которые очень успешны в реальном мире, все еще имеют ограничения. Иногда может показаться, что машины способны мыслить, но в конце концов они не обладают человеческим интеллектом. Это важно иметь в виду».

Ссылка: «Репликация и стабильность в обучении», Закари Чейз, Шей Моран и Амир Иегудайофф, 2023 г., конференция «Основы компьютерных наук» (FOCS).
DOI: 10.48550/arXiv.2304.03757

Исходная ссылка

- Advertisement -

Популярное по теме