Анон, поясни ха нейросети. Как думаешь, есть ли от них толк, будет л у них будущее? Скоро ли будет создан ИИ, ибо я негде видел, что они сумели достичь уровня разума трехлетнего ребенка. Анон, как ты к этому относишься?
Международная группа ученых впервые показала, что заболевания человека обладают специфическим профилем летучих веществ, с помощью газоанализатора на основе наночастиц и машинного обучения. Результаты работы представлены в журнале ACS Nano.
Скоро мамкино рачье будет страдать от ехидного ИИ.Популярности машинного обучения в 2016 году способствовало множество факторов: наконец-то появились достаточно удобные и простые инструменты для создания и обучения сложных нейросетей; а компьютеры стали достаточно мощными для соответствующих вычислений; разработчики начали выпускать простые и понятные продукты, а журналисты полюбили новости, начинающиеся со слов «компьютер научился…».Пожалуй, самая важная история года, связанная с искусственным интеллектом — машина научилась играть в го лучше человека. По крайней мере, программе AlphaGo, разработке компании Google DeepMind, удалось уверенно обыграть одного из самых титулованных игроков Ли Седоля. Теперь она замахнулась на лучшего — Кэ Цзе: они должны встретиться в 2017 году.
Самый громкий провал года, связанный с машинным обучением, случился с Microsoft. Она запустила Twitter-бота, который общался со всеми желающими и учился на ответах других пользователей сервиса. Уже через сутки он начал писать, что «Гитлер был прав», и признавался в ненависти к феминисткам. Microsoft его отключила, «настроила» и запустила снова. И бот опять сошел с ума.Еще несколько роботов вели себя так, словно они расисты. Один искусственный интеллект судил конкурс красоты, и у него почти все «красивые» люди оказались белокожими.Другой робот в 2016 году занимался тем, что обрабатывал фотографии для паспорта в Новой Зеландии. Получив фотографию гражданина азиатской внешности, машина решила, что его глаза закрыты — и отклонила снимок.Есть и более серьезный пример «расизма» искусственного интеллекта. В некоторых штатах в США суды используют программу, которая оценивает данные преступника и сообщает, насколько высок шанс, что он снова пойдет на правонарушение. Оказалось, что эта программа заведомо плохо «думает» о чернокожих.Проблемы, с которым столкнулись разработчики, вызваны двумя вещами. Во-первых, никто точно не понимает, как работает та или иная нейросеть. Во-вторых, иногда она получает искаженный набор изначальных данных, и это влияет на результат. Если показать роботу миллион красивых европейцев и ни одного человека из Азии, он решит, что азиаты некрасивые. И это даже можно долго не замечать — ведь не очень понятно, как машина принимает решение.