'Дискурс беспокойный': как в СМИ попадает АИ тревожно неправильно


Опубликованно 13.09.2018 06:10

'Дискурс беспокойный': как в СМИ попадает АИ тревожно неправильно

В июне прошлого года, пять исследователей при искусственном научно-исследовательское подразделение разведки Facebook была опубликована статья, показывающая, как боты могут имитировать переговоры-разговоры.

Хотя по большей части боты были в состоянии поддерживать связный диалог, исследователи обнаружили, что программное обеспечение будет периодически генерировать странные предложения вроде: “шары ноль для меня для меня для меня для меня для меня для меня для меня”. Будучи человека: насколько реально, мы хотим, чтобы роботы были? Подробнее

Увидев эти результаты, команда поняла, что им не удалось включить ограничения, которые ограничивают ботов для генерации предложений в рамках параметров разговорного английского языка, что означает, что они разработали Тип машины-английском диалекте общаются между собой. Эти выводы были достаточно интересные и другие эксперты в этой области, но не совершенно неожиданным и новаторским.

Через месяц после этого первоначального исследования был освобожден, быстро опубликовал статью А. и. Изобретая Язык люди не могут понять. Мы Должны Это Остановить?. История сосредоточена почти исключительно от того, насколько боты иногда отличаются от стандартного английского, который был не главный вывод бумаги – и сообщил, что после того, как ученые “поняли, что их боты стучат на новом языке” они решили махнуть рукой на весь эксперимент, а если боты были в некотором роде вышел из-под контроля.

Быстрый компании история пошли вирусные и распространились по интернету, вызвав массу содержание голодных публикаций для дальнейшего продвижения этого нового Франкенштейна-эска повествование: “Facebook инженеры панику, вытащить заглушку на ИИ после ботами развивать свой язык,” один сайт в сообщении. Чтобы не быть превзойденным, солнце предложил, что инцидент “очень похож на сюжет из Терминатора, в котором робот осознает себя и начинает вести войну на людей”.

Закари Липтон, доцент кафедры машинного обучения в университете Карнеги-Меллона, смотрел с разочарованием, как эта история превращается из “интересно-ишь исследований” к “сенсации хрень”. Смелые заявления в прессе о случае компьютеры не уникальна для нашего времени, и в самом деле восходит к самым истокам самого вычислительных

По словам Липтона, в последние годы широкий интерес к таким темам, как “машинное обучение” и “глубокого обучения” привело к потоп данного вида оппортунистического журналистики, которая искажает исследований с целью получения ретвитов и кликов – он называет это “Ай дезу эпидемии”. Растет число исследователей, работающих в области доля Липтон разочарования, и беспокоиться о том, что неточные и спекулятивных рассказов об ИИ, как Facebook историю, создают нереалистичные ожидания для поля, которая в конечном счете может угрожать будущему прогрессу и ответственному применению новых технологий.

Смелые заявления в прессе о случае компьютеры не уникальна для нашего времени, и в самом деле восходит к самым истокам вычислительной сам.

В феврале 1946 года, когда школьный автобус-размера, громоздкий Электронный числовой интегратор и компьютер (eniac) был представлен СМИ на пресс-конференции, журналисты описывали его как “электронный мозг”, “математические Франкенштейн”, а “предсказатель и повелитель погоды” и “мастер”. В попытке приглушить некоторые из шумиха вокруг новой машины, известный британский физик д-р Хартри опубликована статья в Nature о том, как Эниак работал в простой и unsensational пути.

К ужасу, Лондонская Times опубликовала историю, которая в значительной степени опирается на его исследования под названием электронного мозга: устранение проблем Заумный; клапаны с памятью. Хартри немедленно ответил письмом в редакцию, сказав, что термин “электронный мозг” вводит в заблуждение и что машина “не заменит человеческой мысли”, но ущерб был нанесен – eniac был навсегда известен в прессе как “мозг машины”.

Это была подобная история в США после того, как Фрэнк Розенблат, инженера в Корнелле Аэронавигационной лаборатории, представлены зачатки машинного обучения алгоритм назван “персептрон” для печати в 1958 году. А “персептрон” может только быть обучены распознавать ограниченный набор паттернов, Нью-Йорк Таймс опубликовала статью, утверждая, что алгоритм “электронного мозга”, который мог “учить себя”, и в один прекрасный день только “уметь ходить, говорить, видеть, писать, воспроизводить себя и осознавать свое существование”.

В то время как головокружительный шумиха вокруг ИИ помогла мобилизовать финансовые ресурсы для исследователей в университетах и в военной области, к концу 1960-х годов становится все более очевидным для многих пионеров ИИ, что они сильно недооценили сложность моделирования человеческого мозга в машинах. В 1969 году Марвин Мински, который выражен лишь восемью годами ранее, что машины превзойдут людей в интеллекте в его жизни, в соавторстве с Сеймура Паперта, доказывая, что это Розенблатта персептрон не может сделать столько специалистов, уже обещал один раз и был далеко не так умен, как средства массовой информации пусть на.

Мински и Паперта книги по залитым научного сообщества с заразной сомневаюсь, что распространилось и на другие поля, прокладывая путь для излияния ИИ развенчание мифа. В 1972 году, философ Хьюберт Дрейфус опубликовал влиятельный стяжка против мыслящих машин называется то, что Компьютеры не могут сделать, а год спустя британский математик Джеймс Лайтхилл был подготовлен доклад о состоянии машинного интеллекта, который пришел к выводу, что “ни в какой области есть открытия, сделанные до сих пор производили основное воздействие, которое тогда было обещано”.

Это корыто разочарования возвестил, что с тех пор называется первой ИИ зима, период, когда финансирование научных исследований в области высадили почти полностью. СМИ вдолбили столько завышенных ожиданий для “электронных мозгов”, и потерял интерес. Пока были маленькие родников в 1980-х и 1990-х, AI был более или менее в теме низведена до банально Научно-фантастические писатели, ученые-компьютерщики часто избегают термина искусственный интеллект вообще, опасаясь рассматривается как “дикими глазами мечтателей”.

•••

Лед сначала ИИ зимой только полностью отступили в начале этого десятилетия после того, как новое поколение исследователей начал публиковать статьи об успешном применении метода, называемого “глубокого обучения”.

Хотя это был принципиально многолетний статистический метод похож на перцептрон Розенблатта, и увеличение вычислительной мощности и наличие огромных наборов данных означает, что глубокое обучение становится практичным для таких задач, как распознавание речи, распознавание образов и языка перевода. Как сообщает глубокого обучения “необоснованных эффективности”, который был распространен среди исследователей, учащихся в вузах машинного обучения классы выросли, корпорации начали вкладывать миллиарды долларов, чтобы найти талант знакомы с новейшими технологиями, и бесчисленное множество стартапов, пытающихся применить AI в транспорт или медицина или Финансы были основаны.

Как это возрождение путем обмана ИИ в СМИ возобновились после длительного перерыва. В 2013 году Джон Маркофф написал большую статью в Нью-Йорк Таймс о глубинное обучение и нейронные сети с заголовком Компьютеры Brainlike, перенимая опыт. Не только название вспомнить шумиху в СМИ 60 лет назад, так и сделали некоторые утверждения в статье о том, что делается возможным благодаря новой технологии. “В ближайшие годы”, - писал Марков, “подход сделает возможным новое поколение систем искусственного интеллекта, которые будут выполнять некоторые функции, которые люди делают с легкостью: видеть, говорить, слушать, навигации, управления и контроля.”

С тех пор, гораздо более драматично и раздутых статей о “Ай Апокалипсис”, “искусственный мозг”, “искусственный суперинтеллект” и “жутко Facebook бот АИС” заполнили ленту новостей ежедневно.

Липтон, джазовый саксофонист, кто решил провести Доктор машинного обучения, чтобы бросить вызов себе интеллектуально, говорит, что в этих нашумевших историй размножаться, так и разочарование среди исследователей, что их работы сообщается на журналистов и писателей, которые имеют малую понимание технологии.

Липтон считает, что самым тревожным, однако, является не технической неграмотности среди журналистов, но и как социальные медиа позволило самопровозглашенной “Ай авторитетов”, которые не делают ничего больше, чем пересказ Элон Маск на своей средней блогов на этом нажиться шумиха с низким качеством, Тед стиле оды. “Чтобы добиться реального прогресса в ИИ требует публичного дискурса, который является трезвым и сообщил,” Липтон говорит. “Прямо сейчас, дискурс настолько безумной, что невозможно сказать, что важно, а что нет.” Есть политики на полном серьезе проводил встречи для обсуждения прав роботов, когда они должны говорить о дискриминации в алгоритмических решений Закари Липтон

Липтон-это не первый человек, чтобы выразить озабоченность по поводу нового цикла шумиха ИИ и где он принимает в поле. В прошлом году, передовой специалист в области Родни Брукс написал статью с критикой “истерия по поводу будущего искусственного интеллекта” для рассмотрения технологии МИТ. В 2013 году, профессора Нью-Йоркского университета Гэри Маркус написал статью для "Нью-Йоркера", в котором он утверждал, что ажиотаж будет создавать нереалистичных ожиданий с последующим разочарованием, ведущий к другому ИИ зима.

Но для Липтон, проблема с нынешней истерии-это не столько риск еще одну зиму, но как-то способствует историй, которые отвлекают от насущных проблем в области. “Люди боятся о неправильных вещах”, - говорит он. “Есть политики на полном серьезе проводил встречи для обсуждения прав роботов, когда они должны говорить о дискриминации в алгоритмических решений. Но эта проблема является земным и трезвым, так что не многие люди интересуются.”

•••

В марте прошлого года, Липтон начал свой собственный блог, чтобы попытаться восстановить равновесие и разобрать некоторые из наиболее пагубных ИИ сенсационные новости. До сих пор он окликнул их “низкого качества” профиль Элон Маск на ярмарке тщеславия, а некритический обзор так называемых Энтони Левандовского церковь ИИ, в частности. Зарегистрируйтесь для стража нам ежедневно по электронной почте Подробнее

Блог получил некоторое внимание от СМИ и имеет постоянную читательскую аудиторию, но Липтон знает, что его влияние ограничено. “Что действительно необходимо, так это более качественной подготовки журналистов и целостности”, - говорит он. “Пока этого не произойдет, мой блог-это просто камешек на порогах хрень. Я не изменяя направление потока”.

Джоан Мак-Нейл, писатель, который исследует новые технологии, соглашается, что есть проблема с некритичным, uninquiring тек журналистики, и часто использует Twitter, чтобы поиздеваться Терминатор-стиль статьи. Но в то же время, она устала от указывая пальцем исключительно на журналистов и считает, что одной из причин ажиотажа ИИ является неравномерное распределение ресурсов.

“Если вы сравните доход журналиста в доход исследователем ИИ, - говорит она, - это становится ясно довольно быстро, почему это невозможно для журналистов для того чтобы произвести Тип тщательно продумали писать, что исследователи хотят делать свою работу”. Она добавляет, что в то время как многие исследователи извлекут пользу из ажиотажа, как писатель, который хочет, чтобы критически изучить эти технологии, она страдает только от него. “Есть несколько торговых точек заинтересованы в публикации нюансов части и несколько редакторов, которые имеют опыт, чтобы изменить их”, - говорит она. “Если исследователи ИИ действительно волнует прикрываясь вдумчиво и критически, они должны собраться вместе и финансировать издания, где писатели могут быть соответствующим образом платили за время, которое это берет, чтобы действительно копать.”

В то время как более тесное взаимодействие между журналистами и исследователями был бы шаг в правильном направлении, Женевьева Белл, профессор инженерии и компьютерных наук в австралийском Национальном университете, говорит, что штамповка из шумиха в публицистике А. и. не представляется возможным. Белл объясняет, что это потому, что статьи об электронных мозгов или пернициозной боты Facebook меньше о технике и больше о наших культурных надежд и тревог. Компьютеры будут уметь думать? Пять книг, чтобы помочь нам понять мА Подробнее

“Мы рассказали истории про неживые вещи приходят к жизни в течение тысяч лет, и эти идеи влияют на то, как мы интерпретируем то, что происходит сейчас”, - говорит Белл. “Эксперты могут быть очень быстры, чтобы уволить, как их исследования заставляет людей чувствовать себя, но эти утопические надежды и мрачные страхи должны быть частью беседы. Шумиха, в конечном счете, культурное выражение, которое имеет свое важное место в дискурсе”.

В конечном счете, Липтон соглашается с тем, что есть место для спекулятивных писать про AI и он признает, что воображение и эмоции могут мотивировать запрос в поле. “Но я также думаю, что граница между дикими домыслами и реальными исследованиями слишком хлипкие прямо сейчас”, - говорит он. “Как показывает история, это границы, которые необходимо контролировать, чтобы мы могли различать, что важно здесь и сейчас и что это просто фантазии.”



Категория: Технологии