Generation ИИ: как искусственный интеллект попал на скамью подсудимых

Generation ИИ: как искусственный интеллект попал на скамью подсудимых

01.02.2023

Время прочтения - 5 мин.

Облачную нейросеть GitHub Copilot, пишущую программный код вместо человека, обвиняют в плагиате.

Искусственный интеллект (ИИ) стремительно проникает во многие области нашей жизни и уже начинает оказывать влияние на мир профессий. Далеко не все эксперименты по замене людей ИИ сегодня выглядят успешными.

Сопротивление неминуемому

К примеру, один из крупнейших сайтов о компьютерных технологиях и хайтеке — CNET — «нанял» бота для написания статей о финансах. А из-за этого попал в скандал, когда читатели заметили в публикациях ошибки при подсчете сложных процентов. Оказалось, что ИИ завысил в десятки раз доход, который можно получить, разместив депозит в банке.  

Но есть и успешные примеры, когда рекламное агентство Артемия Лебедева без рекламаций продавало клиентам дизайн и логотипы, созданные ботом. 

Как бы то ни было, по мнению создателей сайта Death By AI, к числу «гипотетически исчезающих» специальностей — вследствие развития ИИ — относятся писатели и иллюстраторы, переводчики, программисты, многие врачебные направления и даже поп-исполнители, которых с успехом заменят голосистые аватары.

Однако люди вовсе не настроены покидать сферы деятельности, приносящие им стабильный и высокий доход.

Вероятно, именно это и стало основным мотивом для американского программиста и юриста Мэтью Баттерика, подавшего в ноябре прошлого года иск против технологической компании GitHub, владельцем которой является Microsoft. Баттерик обвинил ответчика в незаконном использовании кода, созданного другими программистами.

Точнее, плагиатом занимается облачный инструмент ИИ GitHub Copilot. В его разработку корпорация Билла Гейтса инвестировала значительные средства.   

GitHub Copilot автоматически генерирует компьютерный код и — как утверждает компания-создатель — является помощником программиста. Но, по мнению Баттерика, в своей работе он использует код, написанный человеком, а значит, фактически занимается плагиатом и нарушает авторские права разработчиков ПО.

Generation ИИ

Сегодня магистральным направлением развития ИИ является «генеративный искусственный интеллект». Эта технология требует большого количества специфического контента: именно на нем с помощью приставленных специалистов проводится обучение выполнению определенных задач.

Такие программы учатся распознавать болезни по представленным снимкам, анализам и другим медицинским данным. Они способны помочь в создании новых лекарств и эффективных видов топлива, могут за считанные секунды предвидеть направление движения морского цунами и т. д.

Еще более коммерчески привлекательными выглядят модели, способные написать продающие рекламные тексты или провести письменные переговоры с потенциальным покупателем (платформа Jasper.ai от InvestGlass).

Нейронная сеть DALL-E 2 от Open AI умеет преобразовывать текст в изображение, а более универсальные чат-боты — уровня ChatGPT от той же компании — создавать тексты, осуществлять переводы, отвечать на вопросы, поддерживать диалог и писать компьютерный код.

Впрочем, контент, создаваемый такими ботами, не всегда выглядит убедительным. Они могут неправильно отвечать на вопросы или создавать искаженные картинки. Но постоянно растущий объем обрабатываемой информации делает их лучше и опытнее.

Именно для этой цели компании-разработчики открывают бесплатный доступ к своим нейросетям и ботам, позволяя пользователей нагружать их все большим массивом данных, обеспечивая условия для дальнейшего обучения.

Однако, как выяснил Мэтью Баттерик, многие варианты кода, которые Copilot предлагает программистам для повышения производительности их труда, были написаны раньше. И GitHub вынужден был признать — да, в редких случаях их продукт может банально копировать код, созданный ранее.

Иск, поданный Баттериком — одно из первых дел, связанных с возможным нарушением авторских прав человека со стороны ИИ, но явно не последнее. Тем более, что у человечества на ИИ большие виды.

Внедрять технологии с включением того, что сейчас называют «ИИ», планируют повсеместно. Ему доверят поддержание коммунальных функций мегаполисов, защиту границ от нападения вероятных противников, постановку диагнозов и поиск лекарств для лечения болезней.

Те же китайские власти декларируют возможность передачи системам ИИ судебных функций, чтобы избежать манипуляций, связанных с предубеждениями, предвзятостью и коррупцией.

При этом отношение к ИИ со стороны человека, с одной стороны, определяется недоверием к собственной природе и надеждами на бескомпромиссного арбитра, роль которого может выполнить ИИ. А с другой стороны, опасениями, что ИИ выйдет за рамки полномочий и, подобно злому богу, начнет вершить собственный суд над человечеством. 

Все это и так, и не так, поскольку мы очень часто ставим знак равенства между технологиями, используемыми для тренировки ИИ — такими как машинное обучение, и готовыми продуктами, как, например, робособаки от Boston Dynamics или робот София, с женской кокетливостью признавшийся, что хочет уничтожить человечество.

Такие же параллели можно провести в криптоиндустрии, разграничив основу технологии — блокчейн — и его продукты, которые могут использоваться как во благо, так и во вред. Быстрые переводы без посредников — это замечательно, а банкротство FTX — это плохо.

В таком контексте судебные споры вокруг ИИ пойдут всем только на пользу, помогут точнее определить границы и место этого явления в нашей жизни.

Подпишись на наш телеграм канал

только самое важное и интересное

Подписаться
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Читать также

{"type":"article","id":5224,"isAuthenticated":false,"user":null}