Шестнадцать анонимных истцов обратились в суд с
Истцы требуют возмещения ущерба в размере 3 млрд долларов США, так как компании якобы похитили «огромные объемы личной информации» у интернет-пользователей, без их согласия обучая ChatGPT на их данных.
Иск был подан 28 июня 2023 года в федеральный суд Сан-Франциско, штат Калифорния. Исковое заявление гласит, что OpenAI тайно «похитила 300 миллиардов слов из интернета», при этом не регистрируясь в качестве брокера данных и не получая чьего-либо согласия. Microsoft, в свою очередь, является основным клиентом и корпоративным партнером OpenAI, лицензируя ИИ-технологии компании на миллиарды долларов.
В иске деятельность OpenAI сравнивается с другой ИИ-компанией, Clearview AI, которая ранее попала на первые полосы СМИ, так как собирала информацию о людях из интернета без их явного согласия. Напомню, что Clearview AI собирала фотографии из социальных сетей, чтобы создать на их основе инструмент для распознавания лиц для правоохранительных органов. Из-за этого на Clearview AI подали в суд сразу несколько сторон, включая Американский союз гражданских свобод (ACLU), и в итоге компаний
В иске перечисляется различная интернет-активность истцов на протяжении многих лет, и говорится, что они «не давали согласия на использование [их] личной информации третьими лицами [для обучения ИИ] таким образом», и что компании украли их «личные данные из широкого спектра онлайн-приложений и платформ для обучения своих продуктов».
Данные, которые, как утверждается в иске, были похищены OpenAI, включают имена, контактные данные, адреса электронной почты, платежную информацию, информацию из социальных сетей, логи чатов, телеметрию, аналитические данные и файлы cookie.
В иске содержится просьба запретить OpenAI и Microsoft нарушать неприкосновенность частной жизни, а также предпринять дополнительные шаги. Шаг первый: раскрыть информацию о том, какие данные собираются, и каким образом они используются. Шаг второй: следовать кодексу этических принципов и выплатить истцам компенсацию за украденные данные. Также иск гласит, что пользователи интернета должны иметь право отказаться от любого сбора данных, и любой незаконный сбор информации должен быть прекращен.
Кроме того, в иске упоминается и возможная «экзистенциальная угроза», которую несет ИИ без «немедленного вмешательства законодателей». Истцы ссылаются на недавние призывы к действию со стороны известных личностей, которые просили как можно скорее приостановить или отрегулировать обучение ИИ-систем.
Среди примеров перечислен
Письмо подписали многие известные люди, которые занимаются разработкой и технологиями в сфере ИИ, в том числе: соучредитель OpenAI Илон Маск, математик, кибернетик и информатик, наиболее известный работами в области искусственного интеллекта, а также основатель Mila Иошуа Бенджио, соучредитель Apple Стив Возняк, глава Stability AI Эмад Мострак, пионер исследований в области ИИ Стюарт Рассел, а также основатель Geometric Intelligence Гэри Маркус.
Стоит отметить, что это далеко не первый иск, поданный против OpenAI и Microsoft. К примеру, ранее в этом году в суд поступил другой
Для просмотра ссылки необходимо нажать
Вход или Регистрация
против компаний OpenAI и Microsoft. Истцы требуют возмещения ущерба в размере 3 млрд долларов США, так как компании якобы похитили «огромные объемы личной информации» у интернет-пользователей, без их согласия обучая ChatGPT на их данных.
Иск был подан 28 июня 2023 года в федеральный суд Сан-Франциско, штат Калифорния. Исковое заявление гласит, что OpenAI тайно «похитила 300 миллиардов слов из интернета», при этом не регистрируясь в качестве брокера данных и не получая чьего-либо согласия. Microsoft, в свою очередь, является основным клиентом и корпоративным партнером OpenAI, лицензируя ИИ-технологии компании на миллиарды долларов.
В иске деятельность OpenAI сравнивается с другой ИИ-компанией, Clearview AI, которая ранее попала на первые полосы СМИ, так как собирала информацию о людях из интернета без их явного согласия. Напомню, что Clearview AI собирала фотографии из социальных сетей, чтобы создать на их основе инструмент для распознавания лиц для правоохранительных органов. Из-за этого на Clearview AI подали в суд сразу несколько сторон, включая Американский союз гражданских свобод (ACLU), и в итоге компаний
Для просмотра ссылки необходимо нажать
Вход или Регистрация
этот вопрос, в прошлом году прекратив предлагать услуги частным лицам и компаниям в США.Также в иске фигурируют популярные ИИ-инструменты, разработанные OpenAI и используемые Microsoft, включая языковые модели GPT 3.5 и 4.0, нейросеть Dall-E и модель по преобразованию текста в речь Vall-E.
В иске перечисляется различная интернет-активность истцов на протяжении многих лет, и говорится, что они «не давали согласия на использование [их] личной информации третьими лицами [для обучения ИИ] таким образом», и что компании украли их «личные данные из широкого спектра онлайн-приложений и платформ для обучения своих продуктов».
Данные, которые, как утверждается в иске, были похищены OpenAI, включают имена, контактные данные, адреса электронной почты, платежную информацию, информацию из социальных сетей, логи чатов, телеметрию, аналитические данные и файлы cookie.
«Ответчики несправедливо обогатились за счет кражи личной информации, поскольку их миллиардный бизнес в сфере искусственного интеллекта, включая ChatGPT и так далее, был построен на сборе и монетизации личных данных интернет-пользователей, — гласит иск. — Таким образом, истцы имеют право на возмещение убытков и/или реституцию, представляющую собой стоимость украденных данных и/или их долю прибыли, полученной ответчиками».
В иске содержится просьба запретить OpenAI и Microsoft нарушать неприкосновенность частной жизни, а также предпринять дополнительные шаги. Шаг первый: раскрыть информацию о том, какие данные собираются, и каким образом они используются. Шаг второй: следовать кодексу этических принципов и выплатить истцам компенсацию за украденные данные. Также иск гласит, что пользователи интернета должны иметь право отказаться от любого сбора данных, и любой незаконный сбор информации должен быть прекращен.
Кроме того, в иске упоминается и возможная «экзистенциальная угроза», которую несет ИИ без «немедленного вмешательства законодателей». Истцы ссылаются на недавние призывы к действию со стороны известных личностей, которые просили как можно скорее приостановить или отрегулировать обучение ИИ-систем.
Среди примеров перечислен
Для просмотра ссылки необходимо нажать
Вход или Регистрация
на использование ChatGPT в Италии, а также
Для просмотра ссылки необходимо нажать
Вход или Регистрация
, обращенное ко всем лабораториям, занимающимся разработкой искусственного интеллекта. В этом послании эксперты призывали немедленно приостановить разработку и обучение ИИ, более мощных, чем GPT-4, хотя бы на полгода.Письмо подписали многие известные люди, которые занимаются разработкой и технологиями в сфере ИИ, в том числе: соучредитель OpenAI Илон Маск, математик, кибернетик и информатик, наиболее известный работами в области искусственного интеллекта, а также основатель Mila Иошуа Бенджио, соучредитель Apple Стив Возняк, глава Stability AI Эмад Мострак, пионер исследований в области ИИ Стюарт Рассел, а также основатель Geometric Intelligence Гэри Маркус.
«Распространение ИИ, включая продукты ответчиков, представляет собой экзистенциальную угрозу, если оно не будет ограничено разумными рамками наших законов и общественных норм. Бизнес ответчиков и практика скраппинга [данных] поднимают фундаментально важные правовые и этические вопросы, которые так же должны быть рассмотрены. Обеспечение соблюдения закона не будет равносильно подавлению инноваций в области ИИ, а скорее обеспечит безопасное и справедливое ИИ-будущее для всех», — заключают истцы.
Стоит отметить, что это далеко не первый иск, поданный против OpenAI и Microsoft. К примеру, ранее в этом году в суд поступил другой
Для просмотра ссылки необходимо нажать
Вход или Регистрация
, поданный программистами с GitHub, которые утверждали, что ИИ-инструмент GitHub Copilot, принадлежащий Microsoft, нарушил опенсорсные лицензии и без разрешения использовал их код для обучения.
Для просмотра ссылки необходимо нажать
Вход или Регистрация