Внедрению «умных систем» препятствует недочет доверия к искусственному уму | статьи на zarabotok-igra

Одним из основных препятствий на пути внедрения новейших технологий сейчас является отсутствие доверия к искусственному уму. Исследователи ставят собственной целью сделать инструментарий, который автоматом сформировывал бы индикаторы того, что методы искусственного ума заслуживают доверия. Нейронные сети – пользующаяся популярностью сейчас разновидность искусственного ума, моделирующего мозговую деятельность и генерирующего прогнозы. Но можно ли доверять таковым прогнозам?

В Рф, как и в остальных странах, интенсивно развиваются технологии робомобилей; сегодняшним в летнюю пору их тестировали уже в 13 регионах страны. Но пока во время всех этих испытаний инженер должен посиживать за рулем. Как поведали газете «Ведомости» в рабочей группе «Автонет», российские создатели, кроме «Yandex’а», еще на техническом уровне не готовы выезжать на дорогу без водителя. Меж тем, тесты беспилотных авто без водителя — главный шаг в процессе их внедрения.

Одна из обстоятельств, мешающих внедрению самоуправляемых каров, состоит в том, что тс должны стремительно распознавать объекты на дороге – будь то лежачий полицейский, неодушевленный предмет, домашнее звериное, ребенок либо иной кар – и принимать решение, как действовать. Но можем ли мы доверять программному обеспечению тс в критериях, когда на вход системы поступает противоречивая информация с камер и радаров? Познание того, каким средствам можно довериться и какие датчики предоставляют более четкие сведения, содействовало бы принятию наиболее взвешенных решений.

В определенных ситуациях даже люди проявляют иногда нерешительность. Почему же машинки не информируют нас о возникающих противоречиях? Инструментарий DeepTrust, разработанный учеными из Института Южной Калифорнии, дозволяет количественно оценить величину неопределенности и необходимость вмешательства со стороны человека. На его разработку у команды, использующей для оценки архитектуры нейронных сетей способы личной логики, ушло два года. Оказалось, предложенный механизм дает ответ на вопросец, как проверить надежность алгоритмов искусственного ума, обучаемых на тыщах и миллионах частей данных. Но проверка корректности всех этих частей займет неописуемо много времени. Еще важнее создать так, чтоб архитектура нейронных сетей позволяла получать наиболее четкие результаты в критериях неопределенности. Для тех, кто хочет повысить точность и уровень доверия сразу, работа исследователей может служить ориентиром в отношении того, сколько «шума» находится в тестовых образчиках, а предложенный подход владеет достаточным потенциалом для того, чтоб создать искусственный ум наиболее «ознакомленным и адаптивным».

Источник: osp.ru

Добавить комментарий