Пятница, 23 февраля, 2024
ДомойТехнологииБольше не научная фантастика: что происходит, когда машинное обучение заходит слишком далеко?

Больше не научная фантастика: что происходит, когда машинное обучение заходит слишком далеко?

- Advertisement -

Новое исследование изучает потенциальные риски и этические последствия машинного разума, подчеркивая важность понимания и подготовки к появлению сознания в технологиях искусственного интеллекта и машинного обучения. Это призывает к тщательному рассмотрению этического использования разумных машин и подчеркивает необходимость будущих исследований, чтобы разобраться в сложных отношениях между людьми и этими самосознающими технологиями. Фото: SciTechDaily.com

В каждом художественном произведении есть доля правды, и сейчас самое время опередить научно-фантастические антиутопии и определить, какой риск, связанный с машинным разумом, может представлять собой для людей.

Хотя люди уже давно размышляют о будущем интеллектуальных машин, эти вопросы стали еще более актуальными с появлением искусственного интеллекта (ИИ). машинное обучение. Эти машины напоминают человеческие взаимодействия: они могут помогать решать проблемы, создавать контент и даже поддерживать беседы. Для поклонников научной фантастики и романов-антиутопий на горизонте может возникнуть надвигающийся вопрос: что, если эти машины разовьют чувство сознания?

Исследователи опубликовали свои результаты в журнале Журнал социальных вычислений.

Хотя в этом обсуждении искусственного интеллекта (ИИ) в машинах не представлено поддающихся количественной оценке данных, существует множество параллелей между развитием человеческого языка и факторами, необходимыми машинам для полноценного развития языка.

Возможность создания сознательных машин

«Многие люди, которых беспокоит возможность развития машинного разума, беспокоятся об этичности использования этих машин или о том, будут ли машины, будучи рациональными калькуляторами, атаковать людей, чтобы обеспечить их собственное выживание», — сказал Джон Леви Мартин, автор и исследователь. . «Мы здесь обеспокоены тем, что они заразятся формой самоотчуждения, перейдя к специфической языковой форме восприятия».

Основными характеристиками, делающими возможным такой переход, по-видимому, являются: неструктурированное глубокое обучение, например, в нейронных сетях (компьютерный анализ данных и обучающие примеры для обеспечения лучшей обратной связи), взаимодействие между людьми и другими машинами, а также широкий спектр действий для продолжать самостоятельное обучение. Примером этого могут быть беспилотные автомобили. Многие формы ИИ уже ставят эти галочки, что приводит к беспокойству о том, каким может быть следующий шаг в их «эволюции».

В этом обсуждении говорится, что недостаточно заботиться только о развитии АС в машинах, но возникает вопрос о том, полностью ли мы готовы к появлению определенного типа сознания в наших машинах. Прямо сейчас, с искусственным интеллектом, который может создавать сообщения в блогах, диагностировать болезни, создавать рецепты, предсказывать болезни или рассказывать истории, идеально адаптированные к его входным данным, не за горами возможность представить себе реальную связь с машиной, которая научилась его состояние бытия. Однако исследователи этого исследования предупреждают, что это именно тот момент, когда нам нужно с осторожностью относиться к результатам, которые мы получаем.

Опасности языкового восприятия

«Становление лингвистическим существом — это скорее ориентация на стратегический контроль над информацией и влечет за собой потерю целостности и целостности… это не то, чего мы хотим от устройств, которые мы возлагаем на ответственность за нашу безопасность», — сказал Мартин. Поскольку мы уже поручил ИИ отвечать за большую часть нашей информации, по сути полагаясь на него, чтобы многому научиться, как это делает человеческий мозг, играть в него стало опасной игрой, доверяя ему так много жизненно важной информации почти в кратчайшие сроки. безрассудный путь.

Имитирование человеческих реакций и стратегический контроль информации — две совершенно разные вещи. «Лингвистическое существо» может быть двуличным и расчетливым в своих ответах. Важным элементом здесь является то, в какой момент мы узнаем, что нами играет машина?

Что будет дальше, так это в руках ученых-компьютерщиков разработать стратегии или протоколы для проверки машин на языковую чувствительность. Этика использования машин, развивших лингвистическую форму чувствительности или чувства «я», еще не полностью установлена, но можно предположить, что это станет горячей темой в обществе. Отношения между самореализованным человеком и разумной машиной наверняка будут сложными, и неизведанные воды этого типа родства наверняка приведут к появлению многих концепций, касающихся этики, морали и дальнейшего использования этой технологии «самосознания». .

Ссылка: «Через сканер в темноте: машинное сознание и языковой вирус», Морис Боканга, Алессандра Лембо и Джон Леви Мартин, декабрь 2023 г., Журнал социальных вычислений.
DOI: 10.23919/ОАО.2023.0024

Исходная ссылка

- Advertisement -

Популярное по теме