Читаем Co-Intelligence: Living and Working with AI полностью

Это одна из причин, по которой ряд ученых и влиятельных деятелей призвали остановить разработку ИИ. По их мнению, исследования в области ИИ сродни Манхэттенскому проекту - вмешательство в силы, которые могут привести к вымиранию человечества, ради неясной выгоды. Один из видных критиков ИИ, Элиэзер Юдковский, настолько обеспокоен этой возможностью, что предложил ввести полный мораторий на развитие ИИ , который будет обеспечен авиаударами по любому центру обработки данных, подозреваемому в обучении ИИ, даже если это приведет к глобальной войне. Руководители крупнейших ИИ-компаний даже подписали в 2023 году заявление, состоящее из одного предложения: "Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война". При этом каждая из этих компаний продолжала разработку ИИ.

Почему? Самая очевидная причина заключается в том, что разработка ИИ потенциально очень выгодна, но это еще не все. Некоторые исследователи ИИ считают, что выравнивание не будет проблемой или что опасения по поводу бегства ИИ преувеличены, но они не хотят, чтобы их считали слишком пренебрежительными. Но многие люди, работающие над ИИ, также искренне верят, утверждая, что создание сверхинтеллекта - важнейшая задача для человечества, обеспечивающая "безграничные возможности", по словам Сэма Альтмана, генерального директора OpenAI. Теоретически сверхинтеллектуальный ИИ может излечить болезни, решить проблему глобального потепления и наступить эра изобилия, выступая в роли благожелательного машинного бога.

В области искусственного интеллекта ведется огромное количество дебатов и опасений, но не так много ясности. С одной стороны, апокалипсис, с другой - спасение. Трудно понять, что из всего этого делать. Очевидно, что угроза вымирания человечества под воздействием ИИ носит экзистенциальный характер. Однако мы не собираемся уделять этому вопросу много времени в данной книге по нескольким причинам.

Во-первых, эта книга посвящена ближайшим практическим последствиям нашего нового мира, населенного ИИ. Даже если развитие ИИ будет приостановлено, его влияние на то, как мы живем, работаем и учимся, будет огромным и заслуживает серьезного обсуждения. Я также считаю, что сосредоточенность на апокалиптических событиях лишает большинство из нас самостоятельности и ответственности. Если мы будем так думать, то ИИ превратится в вещь, которую горстка компаний либо создает, либо не создает, и никто, кроме нескольких десятков руководителей Кремниевой долины и высших правительственных чиновников, не сможет повлиять на то, что произойдет дальше.

Но реальность такова, что мы уже живем в начале эпохи ИИ, и нам нужно принять несколько очень важных решений о том, что это на самом деле означает. Ожидание принятия этих решений до тех пор, пока не закончатся дебаты об экзистенциальных рисках, означает, что этот выбор будет сделан за нас. Кроме того, беспокойство о суперинтеллекте - это лишь одна из форм согласования ИИ и этики, хотя из-за своей впечатляющей природы она часто затмевает другие подходы. На самом деле существует широкий спектр потенциальных этических проблем, которые также могут подпадать под более широкую категорию согласования.

Искусственная этика для инопланетных разумов

Эти потенциальные проблемы начинаются с материалов для предварительного обучения ИИ, которые требуют огромных объемов информации. Лишь немногие компании, занимающиеся разработкой ИИ, запрашивают разрешение у создателей контента, прежде чем использовать их данные для обучения, а многие из них держат свои обучающие данные в секрете. Судя по известным нам источникам, ядро большинства корпусов ИИ, по-видимому, взято из мест, где не требуется разрешения, таких как Википедия и правительственные сайты, но оно также скопировано из открытой сети и, вероятно, даже из пиратских материалов. Неясно, является ли обучение ИИ на таком материале законным. В разных странах применяются разные подходы. Некоторые, например Европейский союз, имеют строгие правила защиты данных и конфиденциальности и проявляют интерес к ограничению обучения ИИ на данных без разрешения. Другие, например Соединенные Штаты, придерживаются более мягкой позиции, позволяя компаниям и частным лицам собирать и использовать данные без особых ограничений, но с возможностью судебных исков за неправильное использование. Япония решила пойти до конца и заявить, что обучение ИИ на сайте не нарушает авторских прав. Это означает, что любой человек может использовать любые данные для целей обучения ИИ, независимо от того, откуда они взялись, кто их создал или как они были получены.

Перейти на страницу:

Похожие книги