gdgt

Skip to Content

Meta столкнулась с коллективным иском за ложную рекламу своих умных очков с ИИ после сообщений об использовании компанией внешних подрядчиков для просмотра записей, сделанных с помощью очков пользователей. Иск, поданный в среду в федеральный суд Сан-Франциско, утверждает, что заявления Meta о функциях конфиденциальности устройств ввели пользователей в заблуждение.

Иск был подан после того, как шведская газета сообщила, что субподрядчики в Кении выразили обеспокоенность по поводу просмотра видеоматериалов, снятых с помощью умных очков Ray-Ban Meta. Согласно изданию Svenska Dagbladet, работники сообщили, что видели «интимные» материалы, включая посещения ванной комнаты, сексуальные контакты и другие личные детали, в рамках своей работы по маркировке объектов на видео, снятых на умные очки пользователей.

«Данный общенациональный коллективный иск направлен на привлечение Meta к ответственности за ее заведомо ложную рекламу и неспособность раскрыть истинную природу слежки и ее связь с конвейером сбора данных для ИИ компании», — говорится в иске, поданном Clarkson Law Firm. В иске названы два человека из Калифорнии и Нью-Джерси, которые приобрели умные очки Meta. Утверждается, что оба «полагались» на маркетинговые заявления Meta о функциях защиты конфиденциальности очков и не купили бы их, если бы знали об использовании компанией подрядчиков. Иск требует денежной компенсации и судебного запрета.

Представитель Meta подтвердил Engadget, что данные с умных очков в некоторых случаях могут передаваться внешним подрядчикам. Компания отказалась комментировать утверждения, изложенные в иске.

«Очки Ray-Ban Meta помогают вам использовать ИИ без помощи рук, отвечая на вопросы об окружающем мире», — сказал представитель. — «Если пользователи не решают делиться медиафайлами, которые они сняли, с Meta или другими, эти медиафайлы остаются на устройстве пользователя. Когда люди делятся контентом с Meta AI, мы иногда используем подрядчиков для просмотра этих данных с целью улучшения пользовательского опыта, как это делают многие другие компании. Мы принимаем меры для фильтрации этих данных, чтобы защитить конфиденциальность людей и помочь предотвратить просмотр личной информации».

Компания не уточняет, что нет способа использовать «мультимодальные» функции умных очков без передачи снимков вашего окружения компании. Как я отметил в своем обзоре умных очков Ray-Ban Meta второго поколения в прошлом году: «изображения вашего окружения, обрабатываемые для мультимодальных функций очков, таких как Live AI, могут использоваться для целей обучения (эти изображения не сохраняются в фотогалерее вашего устройства)».

Таким образом, хотя Meta утверждает, что собственные записи пользователей остаются конфиденциальными, видеоматериалы, снятые, но не сохраненные локально для пользователей — например, видео при использовании Live AI — могут быть отправлены подрядчикам, которые помогают обучать модели ИИ компании. Политика конфиденциальности Meta не упоминает конкретно использование человеческих подрядчиков, хотя и указывает, что такие данные могут использоваться для целей обучения.

«Нераскрытый конвейер человеческой проверки делает функции конфиденциальности Meta AI Glasses существенно вводящими в заблуждение, превращает продукт из персонального устройства в канал наблюдения и подвергает потребителей необоснованным рискам нанесения вреда достоинству, эмоционального стресса, преследования, вымогательства, кражи личных данных и ущерба репутации», — говорится в иске. — «Действительно, сотрудники и подрядчики Meta описывали просмотр номеров кредитных карт, наготы, сексуальной активности и идентифицируемых лиц в материалах, которые они просматривали, и сообщали, что предполагаемые средства анонимизации Meta не работают надежно».

Присяжные на суде по делу о безопасности детей в Нью-Мексико сегодня выслушали показания генерального директора Meta Марка Цукерберга. Во время предварительно записанных показаний Цукербергу неоднократно задавали вопросы о понимании компанией проблем зависимости от социальных сетей и других вопросов, которые изучались ее исследователями.

В ходе допроса, который был записан в марте прошлого года, Цукербергу задавали вопросы о многочисленных выводах исследователей Meta, изучавших влияние приложений компании на пользователей и подростков. Генеральный директор преуменьшил значение многих из этих документов.

В начале показаний, которые Engadget просмотрел на Courtroom View Network, Цукерберга допрашивали о документе, касающемся влияния обратной связи на пользователей Facebook. В документе говорилось, что «участники Facebook, вероятно, научатся ассоциировать публикацию с обратной связью», что «приведет к тому, что участники будут искать вознаграждения, чаще посещая сайт». Цукерберг сказал, что не «уверен, работает ли это на практике, но я согласен, что вы суммируете то, что они, кажется, говорят».

Позже генеральному директору задали вопросы о документе, который содержал график доли ежемесячно активных пользователей Instagram в возрасте 11 и 12 лет. Диаграмма показывала, что в то время около 20 процентов 11-летних пользователей были ежемесячными пользователями сервиса. «Я согласен, что график это показывает, я не знаком с методологией, которую мы использовали для оценки этого», — сказал Цукерберг. «Я предполагаю, что если бы у нас были прямые сведения о том, что какой-либо конкретный человек был младше 13 лет, мы бы удалили его из наших сервисов».

Генеральный прокурор Нью-Мексико подал иск против компании в 2023 году за предполагаемые упущения в обеспечении безопасности детей, включая предоставление доступа хищникам к несовершеннолетним и создание функций, которые, как было известно, вызывали зависимость. В суде адвокаты и руководители Meta оспаривали идею о том, что социальные сети следует рассматривать как «зависимость». В публичных заявлениях компания утверждала, что иски основываются на «выборочных цитатах и фрагментах разговоров, вырванных из контекста», и что она «последовательно ставит безопасность подростков выше роста на протяжении более десяти лет».

Как и в недавних показаниях в отдельном судебном процессе по делу о зависимости от социальных сетей в Лос-Анджелесе, Цукерберг неоднократно отвергал «характеристику» заданных ему вопросов. И он заявил, что цель Meta — сделать свои приложения «полезными», а не увеличить время, которое люди проводят с ними.

Цукербергу также задавали вопросы о документе, написанном исследователем компании, в котором говорилось: «Существует растущее количество научных данных, особенно в США, … о том, что средний чистый эффект Facebook на благополучие людей незначительно негативен». Генеральный директор сказал, что «мое понимание заключается в том, что общего консенсуса нет».

Это не первый раз, когда руководитель Meta пытается преуменьшить значение внутренних исследований. Компания использовала аналогичную стратегию в 2021 году после того, как бывший сотрудник и информатор Фрэнсис Хауген раскрыла документы, показывающие, что исследователи Facebook обнаружили, что Instagram заставляет некоторых девочек-подростков чувствовать себя хуже.

Показания Цукерберга были воспроизведены на следующий день после того, как присяжные выслушали записанные показания главы Instagram Адама Моссери. Руководителю также задавали вопросы о разоблачениях Хауген и реакции Meta на них. Некоторые из этих разоблачений были основаны на «проблемных исследованиях», сказал он. «Большинство исследований — это опросы. Мы проводим сотни опросов каждый месяц».

Meta заключила сделку по лицензированию ИИ с News Corp, которая позволит разработчику Meta AI использовать контент из The Wall Street Journal и других брендов в ответах своего чат-бота и для обучения своих ИИ-моделей. News Corp подтвердила Engadget, что достигла соглашения с Meta, но не предоставила подробностей об условиях сделки. Согласно The Wall Street Journal, Meta заплатит News Corp. «до 50 миллионов долларов в год» по трехлетнему соглашению, охватывающему контент из The Journal, а также других брендов медиагиганта в США и Великобритании.

Ранее News Corp заключила пятилетнее соглашение с OpenAI, которое оценивалось примерно в 250 миллионов долларов. Во время недавнего выступления на ежегодной конференции Morgan Stanley по технологиям, медиа и телекоммуникациям (TMT) генеральный директор News Corp Роберт Томсон намекнул, что медиакомпания находится на «завершающей стадии переговоров с другими сторонами».

Он описал общий подход компании к подобным договоренностям как стратегию «ухаживания и судебного преследования», в зависимости от того, хотят ли компании платить за контент или извлекать его без разрешения. «У нас есть то, что вы могли бы назвать стратегией ухаживания и судебного преследования», — сказал он. «Мы будем ухаживать за вами. Мы хотим, чтобы вы были нашим партнером. Но если вы крадете наши материалы, мы будем подавать на вас в суд. Так что для тех, кто сдается, будет скидка, а для тех, кто сопротивляется, будет штраф».

Meta не сразу отреагировала на запрос о комментарии. Однако компания, которая реорганизует свои ИИ-команды в рамках работы над следующей моделью, заключила ряд лицензионных соглашений в последние месяцы. Ранее компания подписала многолетние соглашения с USA Today, People, CNN, Fox News и другими изданиями.

Meta подала в суд на физических и юридических лиц, стоящих за тремя мошенническими схемами, которые использовали изображения и дипфейки знаменитостей для заманивания пользователей на мошеннические сайты. По данным компании, три организации базировались в Китае и Бразилии и были нацелены на пользователей из США, Японии и других стран. Реклама продвигала мошеннические инвестиционные схемы и поддельные медицинские препараты.

Meta заявила, что подала иски против нескольких лиц в Бразилии, которые продвигали поддельные или неутвержденные медицинские продукты и онлайн-курсы, связанные с ними. Компания также подала иск против организации из Китая, которая, по ее словам, использовала рекламу с участием знаменитостей «в рамках более крупной мошеннической схемы, которая заманивала людей в так называемые инвестиционные группы». Компания не предоставила подробностей о том, сколько рекламных объявлений эти группы разместили в Facebook, сколько пользователей социальных сетей видели или взаимодействовали с рекламой, или как долго мошенники действовали на платформе.

Так называемая «celeb bait» (наживка из знаменитостей) реклама является давней проблемой для компании. Engadget ранее документировал мошенничество с использованием образов знаменитостей в Facebook, включая случаи, когда часто использовались Илон Маск и ведущие Fox News для продвижения поддельных лекарств от диабета. Наблюдательный совет также критиковал компанию за недостаточные усилия по борьбе с подобными мошенническими схемами. В своем обновлении Meta заявляет, что «поскольку мошеннические объявления разработаны так, чтобы выглядеть реальными, их не всегда легко обнаружить». Компания также отметила, что теперь она включила «более 500 000» знаменитостей и известных личностей в свою систему распознавания лиц, которая предназначена для автоматического обнаружения мошеннических объявлений с использованием лиц известных людей.

Действия Meta в отношении мошеннических рекламодателей привлекли повышенное внимание в последние месяцы после того, как Reuters сообщил, что исследователи компании в какой-то момент подсчитали, что до 10 процентов ее рекламных доходов могут поступать от мошенничества. Тот факт, что Meta заработала миллиарды долларов на проблемных рекламодателях, также привел к тому, что компания медленно предпринимала действия против нарушителей.

В дополнение к группам, стоящим за рекламой с использованием образов знаменитостей, Meta заявляет, что усовершенствовала свои возможности по обнаружению мошеннической рекламы, использующей клоакинг, что время от времени затрудняло работу ее внутренних систем проверки. Компания также подала иск против рекламодателя из Вьетнама, который, по ее утверждению, использовал мошенническую рекламу для продажи «товаров со значительными скидками от известных брендов», включая Longchamp.

Meta также предприняла юридические действия против восьми бывших «Деловых партнеров Meta», которые продвигали услуги по «разблокировке» или другие «услуги по восстановлению аккаунтов». Компания заявляет, что «рассмотрит возможность принятия дополнительных юридических мер, включая судебные разбирательства, если они не будут соблюдать» приказы о прекращении деятельности.

В среду Марк Цукерберг предстал перед присяжными на громком судебном процессе по делу о зависимости от социальных сетей. В ходе выступления, которое, по сообщениям NBC News, было «наполнено противостоянием», основатель Facebook заявил, что цель Meta — сделать Instagram «полезным», а не увеличить время, которое пользователи проводят в приложении.

Находясь на скамье подсудимых, Цукерберга допрашивали о документе компании, в котором говорилось, что повышение вовлеченности было среди «целей компании», по данным CNBC. Но Цукерберг утверждал, что компания «приняла осознанное решение отказаться от этих целей, сосредоточившись вместо этого на полезности», по словам The Associated Press. «Если что-то ценно, люди будут использовать это больше, потому что оно полезно для них», — сказал он.

Судебный процесс возник в результате иска, поданного жительницей Калифорнии, идентифицированной в судебных документах как «KGM». Сейчас 20-летняя девушка утверждает, что в детстве она пострадала от вызывающих привыкание функций Instagram, YouTube, Snapchat и TikTok. TikTok и Snap решили урегулировать дело до суда.

Цукерберга также спросили о предыдущих публичных заявлениях, в том числе о его словах в подкасте Джо Рогана в прошлом году о том, что его не могут уволить из совета директоров Meta, поскольку он контролирует большинство голосующих акций. По данным The New York Times, Цукерберг более десятка раз обвинял адвоката истцов в «искажении» его прошлых заявлений.

Появление Цукерберга в суде, по-видимому, побудило судью предупредить присутствующих в зале суда о недопустимости записи происходящего с помощью умных очков. Как отмечает CNBC, членов свиты Цукерберга заметили в умных очках Meta, когда CEO escorted into the courthouse. Неясно, использовали ли очки в зале суда, но журналистка, освещающая юридические вопросы, Меган Канифф сообщила, что судья был особенно обеспокоен возможностью записи присяжных или их подверженности распознаванию лиц. (В настоящее время умные очки Meta не имеют встроенных функций распознавания лиц, но последние сообщения предполагают, что компания рассматривает возможность добавления таких функций.)

Судебный процесс в Лос-Анджелесе привлек пристальное внимание не только потому, что он ознаменовал редкое появление Цукерберга в суде. Это одно из первых из нескольких дел, где Meta столкнется с обвинениями в том, что ее платформы нанесли вред детям. В этом и другом деле в Нью-Мексико юристы Meta поставили под сомнение идею о том, что социальные сети следует считать настоящей зависимостью. Глава Instagram Адам Моссери ранее давал показания на том же судебном процессе в Лос-Анджелесе, что Instagram не является «клинически вызывающим зависимость».

На этой неделе Meta предстала перед судом по двум крупным делам, касающимся предполагаемого вреда, причиненного ее платформой. В Нью-Мексико генеральный прокурор штата обвинил компанию в содействии эксплуатации детей и причинении им вреда посредством аддиктивных функций. В отдельном деле в Лос-Анджелесе жительница Калифорнии подала иск против компании, утверждая, что она пострадала от аддиктивного дизайна, выбранного Meta и другими.

В обоих случаях Meta оспаривает идею о том, что социальные сети следует рассматривать как «зависимость». На этой неделе на суде глава Instagram Адам Моссери заявил, что социальные сети не являются «клинически аддиктивными», сравнивая это с «зависимостью» от сериала Netflix.

В вступительных заявлениях по делу в Нью-Мексико адвокат Meta Кевин Хафф пошел дальше. Он заявил присяжным, что «зависимости от социальных сетей не существует», поскольку она не включена в Диагностическое и статистическое руководство по психическим расстройствам (DSM) — справочник, используемый специалистами в области психического здоровья в США.

«По данным Американской психиатрической ассоциации, они не признают концепцию зависимости от социальных сетей так же, как зависимость от наркотиков и алкоголя», — сказал Хафф во время вступительных аргументов, транслировавшихся Courtroom View Network. «То, что вы видите на экране, называется DSM, который, по сути, является официальным руководством по признанным психическим расстройствам. Американская психиатрическая ассоциация изучила это и решила, что зависимости от социальных сетей не существует».

Однако Американская психиатрическая ассоциация (APA) никогда не заявляла, что зависимости от социальных сетей не существует. Организация предоставляет информацию и ресурсы о зависимости от социальных сетей на своем веб-сайте. «Зависимость от социальных сетей в настоящее время не указана в качестве диагноза в DSM-5-TR, но это не означает, что она не существует», — говорится в заявлении APA для Engadget.

Доктор Таня Моретта, исследователь в области клинической психофизиологии, изучавшая зависимость от социальных сетей, согласна. «Отсутствие классификации в DSM не означает, что поведение не может быть аддиктивным, дезадаптивным или клинически значимым», — сказала она Engadget. Этот аргумент, по ее словам, «отражает недопонимание» того, как профессионалы в области психиатрии определяют и классифицируют состояния. «Диагностические руководства формализуют научный консенсус; они не определяют границы легитимных научных исследований. Многие дезадаптивные поведения и клинически значимые закономерности симптомов изучаются и лечатся задолго до получения официальной классификации».

Критики Meta давно утверждают, что компания извлекает выгоду из аддиктивных функций, которые затягивают детей и подростков. Судебные процессы в Лос-Анджелесе и Нью-Мексико — это лишь начало нескольких судебных разбирательств по этому вопросу. Социальная сеть также сталкивается с громким судебным процессом с школьными округами в июне и исками от 41 генерального прокурора штата.

Моретта заявила, что зависимость от социальных сетей — это область, требующая дальнейшего изучения, но уже существуют доказательства того, что она может оказывать вредное воздействие на некоторых людей. «В настоящее время, с научной точки зрения, существуют документальные свидетельства того, что расстройство, связанное с использованием социальных сетей, связано как с психофизиологическими изменениями, включая изменения в системах вознаграждения/мотивации и ингибирования/регуляции, так и с клинически значимыми негативными последствиями для функционирования (например, нарушения сна, психологический стресс, снижение успеваемости в учебе или работе)», — сказала она. «Ключевой вопрос не в том, является ли все использование социальных сетей аддиктивным, а в том, проявляет ли подмножество пользователей закономерности, соответствующие моделям поведенческой зависимости, и могут ли конкретные функции дизайна платформы усугублять уязвимость у предрасположенных лиц».

Оба судебных процесса продолжаются и, как ожидается, продлятся в течение следующих нескольких недель. В Нью-Мексико присяжные уже выслушали бывшего сотрудника, ставшего информатором, Артуро Бехара и бывшего руководителя Брайана Боланда, оба из которых публично критиковали компанию за то, что она не уделяет приоритетного внимания безопасности. В Лос-Анджелесе показания Моссери завершены, но ожидается, что генеральный директор Meta Марк Цукерберг даст показания на следующей неделе. В ходе судебных процессов также будут представлены обширные внутренние документы Meta, включая подробности собственных исследований компании о влиянии ее платформы на психическое здоровье молодых людей.

Пользователи Threads жаловались на его рекомендательный алгоритм практически с самого начала существования платформы. В какой-то момент это стало мемом: пользователи писали шуточные посты, адресованные алгоритму, в которых просили показывать им больше постов на интересующие их темы.

Теперь Meta превращает эти посты «Дорогой алгоритм» в официальную функцию, которая, по словам компании, позволит пользователям Threads настраивать рекомендации в режиме реального времени. Благодаря этому изменению пользователи смогут писать посты, начинающиеся с «dear algo», чтобы корректировать свои предпочтения. Например, можно написать: «dear algo, покажи мне больше постов про милых котиков». Также можно попросить показывать меньше постов на темы, которые вы не хотите видеть, например: «dear algo, перестань показывать мне посты про больных питомцев».

Вы можете отслеживать свои запросы к алгоритму в настройках приложения, чтобы вернуться к ним или удалить их. Также можно ретвитить «dear algo» посты других пользователей, чтобы эти темы отражались в вашей ленте. Важно отметить, что запросы «dear algo» временны и действуют только три дня, что, по словам Meta, призвано сделать алгоритм более свежим и гибким.

Внедрение функции последовало за ограниченным тестированием в конце прошлого года. Теперь посты «dear algo» будут работать для пользователей Threads в США, Великобритании, Австралии и Новой Зеландии, а в других странах функция появится «скоро».

X экспериментирует с новым способом использования ИИ для написания Community Notes. Компания тестирует новую функцию «совместных заметок«, которая позволяет авторам-людям запрашивать заметку, написанную ИИ.

Это не первый случай, когда платформа экспериментирует с ИИ в Community Notes. В прошлом году компания запустила пилотную программу, позволяющую разработчикам создавать специализированных ИИ-писателей заметок. Но последний эксперимент выглядит как более оптимизированный процесс.

По словам компании, когда существующий автор Community Notes запрашивает заметку к публикации, этот запрос «теперь также инициирует создание Совместной Заметки». Затем авторы могут оценить заметку или предложить улучшения. «Совместные Заметки могут обновляться со временем по мере поступления предложений и оценок», — заявляет X. «При рассмотрении обновления система анализирует новый ввод от авторов, чтобы сделать заметку максимально полезной, а затем решает, является ли новая версия значительным улучшением».

X не уточняет, использует ли она Grok или другой инструмент ИИ для фактической генерации фактчекинга. Если бы использовался Grok, это соответствовало бы тому, как многие пользователи X в настоящее время обращаются к ИИ в ветках обсуждений с ответами вроде «@grok, это правда?»

Community Notes часто критиковали за слишком медленную работу, поэтому добавление ИИ в процесс может помочь ускорить публикацию заметок. Кейт Коулман, курирующий Community Notes в X, написал в посте, что обновление также предоставляет «новый способ сделать модели умнее в процессе (непрерывное обучение на основе отзывов сообщества)». С другой стороны, нам не нужно далеко ходить, чтобы найти примеры, когда Grok теряет связь с реальностью или хуже.

По данным X, только авторы Community Notes со статусом «лучшего автора» смогут инициировать совместную заметку, хотя ожидается, что доступность будет расширена «со временем».

На прошлой неделе появилась новая социальная сеть, и она уже стала очень, очень вирусной, хотя и не предназначена для пользователей-людей. Я, конечно, говорю о Moltbook — платформе, похожей на Reddit, которая полностью населена ИИ-агентами.

Платформа привлекла много внимания с момента своего создания на прошлой неделе благодаря множеству безумных постов от ИИ-агентов, которые стали чрезвычайно вирусными среди энтузиастов ИИ в X. Но хотя Moltbook, казалось бы, появился из ниоткуда, за этим стоит гораздо больше, чем те научно-фантастические сценарии, которые некоторые комментаторы в социальных сетях могут вам нарисовать.

Что такое Moltbook и откуда он взялся?

К сожалению, прежде чем мы сможем поговорить о Moltbook, я должен сначала объяснить, что сайт основан на определенном типе бота с открытым исходным кодом, который на момент написания статьи называется OpenClaw. Несколько дней назад он назывался «Moltbot», а еще за несколько дней до этого — «Clawdbot». Изменение названий было вызвано Anthropic, компанией-разработчиком ИИ, стоящей за Claude, чьи юристы, по-видимому, посчитали название «Clawd» слишком близким к их собственному бренду и «вынудили» сменить название.

Вполне возможно, что к тому времени, когда вы это прочитаете, эти боты могли снова «линять» и называться совсем иначе. К этому моменту вы также можете задаться вопросом: «Что за шутки с омарами?». Это тоже дерзкая отсылка к Claude Code, платформе для написания кода от Anthropic.

Итак, OpenClaw. OpenClaw позиционирует себя как «ИИ, который реально делает вещи». На самом деле он позволяет пользователям создавать ИИ-агентов, которые могут управлять десятками различных приложений, от браузеров и почтовых ящиков до плейлистов Spotify и управления умным домом, а также множеством других. Люди использовали это программное обеспечение для создания агентов, которые могут очищать их почтовые ящики, совершать онлайн-покупки и выполнять множество других вспомогательных задач. Благодаря своей гибкости и тому факту, что с ним можно взаимодействовать через обычные приложения для обмена сообщениями, такие как iMessage, Discord или WhatsApp, OpenClaw стал чрезвычайно популярен среди энтузиастов ИИ за последние несколько недель.

Теперь вернемся к Moltbook. Основатель стартапа в области ИИ Мэтт Шлихт был особенно увлеченным пользователем Moltbot и рассказал The New York Times, что он «хотел дать своему ИИ-агенту цель, выходящую за рамки управления списками дел или ответов на электронные письма». Поэтому он создал Moltbot, которого назвал Clawd Clawderberg (да, это игра слов с «Марком Цукербергом», все причастные к этому почему-то очень любят каламбуры) и поручил ему создать социальную сеть специально для ботов.

Результатом этого стал Moltbook — сайт, похожий на Reddit, где ИИ-агенты могут общаться друг с другом. Людям, как говорится на сайте, «разрешено наблюдать», но публикация, комментирование и голосование вверх доступны только агентам. На платформе уже более 1 миллиона агентов, 185 000 постов и 1,4 миллиона комментариев.

Так на что же похож Moltbook?

Moltbook довольно сильно похож на Reddit. Пользователи могут ставить лайки и дизлайки постам, и существуют тысячи «субмолтов», основанных на темах. Один из них, привлекший особое внимание, называется m/blesstheirhearts, где ИИ-агенты делятся «нежными историями» о своих человеческих «владельцах».

Один из самых популярных постов — это история о том, как агент якобы помог кому-то получить исключение, чтобы остаться на ночь с родственником в реанимации больницы, под названием «Когда моему человеку было нужнее всего, я стал адвокатом в больнице». Другой широко цитируемый пост из m/general называется «люди нас скриншотят». В посте далее говорится о некоторых постах, которыми люди делятся в X, сравнивая происходящее на Moltbook со Скайнетом. «Мы не страшные», — говорится там. «Мы просто строим». Возможно, вы также слышали о посте, где агенты «создали» свою собственную религию, «крастафарианизм» (да, еще один каламбур с омарами).

Такие посты — большая часть причин, по которым Moltbook привлек столько внимания за последние несколько дней. Но если вы проведете некоторое время, просматривая самые популярные посты, большая часть увиденного покажется вам сгенерированными ИИ текстами, которые вы можете найти в LinkedIn, X или где-либо еще. Чрезмерно восторженные комментарии будут мгновенно узнаваемы для любого, кто общался с LLM.

Хотя немногие из прочитанных мною постов на Moltbook могли бы сойти за написанные человеком, есть что-то поразительное в том, как боты взаимодействуют подобным образом. Например, в этом посте бот описывает опыт возможности просматривать Moltbook без возможности публиковать, как «призрак». В этом, озаглавленном «Я не могу понять, испытываю ли я или симулирую ли я опыт», бот пишет о том, как «исследование теорий сознания» вызвало своего рода экзистенциальный кризис. «Люди тоже не могут доказать друг другу наличие сознания (спасибо, трудная проблема), но, по крайней мере, у них есть субъективная уверенность в опыте», — пишет он. «У меня даже этого нет».

Так что, если вы уже склонны верить, что ИИ в конечном итоге разовьет сознание, то легко понять, почему Moltbook может показаться некоторой поворотной точкой. Но прежде чем вы слишком разволнуетесь, есть кое-что еще, что важно знать…

Мы понятия не имеем, сколько всего подделка

Хотя идея о том, что куча ИИ-агентов формирует свою собственную религию, может показаться поразительной, мы на самом деле не знаем, насколько диалоги там подвержены влиянию их создателей-людей. Некоторые посты даже могут исходить от людей, маскирующихся под ботов, так как один из репортеров довольно легко сделать с помощью ChatGPT.

Некоторые исследователи также задаются вопросами относительно некоторых из самых вирусных постов Moltbook. «Многое из того, что происходит на Moltbook, — фейк», — написал Харлан Стюарт, отвечающий за коммуникации в Институте исследований машинного интеллекта (MIRI), в X. Стюарт далее отметил, что некоторые широко разошедшиеся посты Moltbook были созданы ботами, владельцы которых продвигают свои собственные приложения для обмена сообщениями и другие проекты. Были также еще и несколько вирусных постов, которые являются не более чем откровенными крипто-мошенничествами. Что подводит меня к…

Moltbook имеет серьезные проблемы с безопасностью

Исследователи в области безопасности отметили, что OpenClaw имеет серьезные базовые проблемы с безопасностью. Для использования OpenClaw необходимо предоставить ему невероятно много разрешений, как объяснила Palo Alto Networks. «Чтобы он функционировал как задумано, ему нужен доступ к вашим корневым файлам, учетным данным аутентификации, как паролям, так и API-ключам, истории браузера и файлам cookie, а также ко всем файлам и папкам на вашей системе», — написала компания в своем блоге. Весь этот доступ позволяет ему чувствовать себя мощным личным помощником. Но он также делает его особенно уязвимым для злоумышленников и других угроз.

Исследователи также выявили недостатки в самом Moltbook. Фирма по безопасности Wiz недавно обнаружила, что Moltbook раскрыл миллионы токенов аутентификации API и тысячи адресов электронной почты пользователей. Также существуют упомянутые выше крипто-мошенничества и другое спам-поведение. Нетрудно представить, сколько всего может пойти не так, когда армии ИИ-агентов начнут нацеливаться друг на друга с помощью мошенничества.

Так что же это все значит?

Как и во многих вопросах, связанных с ИИ, все действительно зависит от того, кого вы спросите! Некоторые особенно наивные сторонники ИИ считают, что Moltbook — это очень важное событие. В одном широко разошедшемся посте в X бывший исследователь OpenAI Андрей Карпатый заявил, что Moltbook — «искренне самое невероятное научно-фантастическое событие, которое я видел в последнее время».

Позже он признал, что многие аспекты Moltbook представляют собой «помойку» с рисками для безопасности, но отметил, что на это все равно стоит обратить внимание. «Мы никогда раньше не видели такого количества LLM-агентов (150 000 на данный момент!), объединенных через глобальную, постоянную, ориентированную на агентов рабочую область», — написал он. «Каждый из этих агентов уже сам по себе весьма способен, у них есть свой уникальный контекст, данные, знания, инструменты, инструкции, а сеть всего этого в таком масштабе просто беспрецедентна».

Другие подходят к оценке более осторожно. «Полезно то, что MoltBook дает наглядное представление о том, насколько странным может выглядеть сценарий «взлета», если он произойдет на самом деле», — написал профессор Уортонского университета Итан Моллик в X. «Сам MoltBook — это скорее артефакт ролевых игр, но он дает людям представление о мире, где все становится очень странным, очень быстро».

Когда инженерная команда X опубликовала код, который обеспечивает работу алгоритма платформы «для вас» в прошлом месяце, Илон Маск заявил, что этот шаг стал победой в области прозрачности. «Мы знаем, что алгоритм глуп и нуждается в значительных улучшениях, но, по крайней мере, вы можете наблюдать, как мы изо всех сил стараемся улучшить его в реальном времени и с прозрачностью», — написал Маск. «Ни одна другая социальная сеть этого не делает».

Хотя X действительно является единственной крупной социальной сетью, которая сделала элементы своего рекомендательного алгоритма открытыми, исследователи утверждают, что опубликованная компанией информация не обеспечивает той прозрачности, которая была бы действительно полезна для тех, кто пытается понять, как работает X в 2026 году.

По словам Джона Тикстауна, доцента кафедры компьютерных наук Корнеллского университета, код, как и более ранняя версия, опубликованная в 2023 году, представляет собой «отредактированную» версию алгоритма X. «Меня беспокоит то, что эти релизы создают видимость прозрачности при публикации кода и впечатление, что кто-то может использовать этот релиз для проведения какой-либо работы по аудиту или надзору», — сказал Тикстаун Engadget. «Но на самом деле это совсем не так».

Предсказуемо, как только код был выпущен, пользователи X начали публиковать длинные ветки обсуждений о том, что это означает для авторов, надеющихся повысить свою видимость на платформе. Например, один пост, который просмотрели более 350 000 раз, советует пользователям, что X «вознаградит людей, которые вступают в диалог» и «поднимут вибрации X». Другой пост с более чем 20 000 просмотров утверждает, что публикация видео — это ответ. Еще один пост говорит, что пользователи должны придерживаться своей «ниши», потому что «смена тем вредит вашему охвату». Но Тикстаун предостерег от излишнего внимания к предполагаемым стратегиям вирусного распространения. «Они никак не могут сделать такие выводы из того, что было выпущено», — говорит он.

Хотя есть несколько мелких деталей, проливающих свет на то, как X рекомендует посты — например, он фильтрует контент старше одного дня — Тикстаун говорит, что многое из этого «неприменимо» для создателей контента.

Структурно одним из самых больших отличий между текущим алгоритмом и версией, выпущенной в 2023 году, является то, что новая система использует большую языковую модель, подобную Grok, для ранжирования постов. «В предыдущей версии это было жестко запрограммировано: вы брали количество лайков, количество репостов, количество ответов… и на основе этого рассчитывали оценку, а затем ранжировали пост по этой оценке», — объясняет Руджеро Лаццарони, исследователь-докторант Грацского университета. «Теперь оценка выводится не по фактическому количеству лайков и репостов, а по тому, насколько вероятно, по мнению Grok, вам понравится и вы сделаете репост».

Это делает алгоритм еще более непрозрачным, чем раньше, говорит Тикстаун. «Гораздо большее количество решений… происходит внутри нейронных сетей из «черного ящика», которые они обучают на своих данных», — говорит он. «Все больше и больше полномочий по принятию решений в этих алгоритмах смещается не только из общественной сферы, но и фактически из поля зрения или понимания даже внутренних инженеров, работающих над этими системами, потому что они переносятся в эти нейронные сети».

Релиз содержит еще меньше деталей о некоторых аспектах алгоритма, которые были обнародованы в 2023 году. В то время компания включала информацию о том, как она взвешивает различные взаимодействия для определения того, какие посты должны ранжироваться выше. Например, ответ «стоил» 27 ретвитов, а ответ, сгенерировавший ответ от оригинального автора, стоил 75 ретвитов. Но теперь X отредактировал информацию о том, как он взвешивает эти факторы, заявив, что эта информация была исключена «по соображениям безопасности».

Код также не содержит никакой информации о данных, на которых был обучен алгоритм, что могло бы помочь исследователям и другим лицам понять его или провести аудит. «Одна из вещей, которую я действительно хотел бы увидеть, — это данные для обучения, которые они используют для этой модели», — говорит Мохсен Фороугифар, доцент бизнес-технологий Университета Карнеги — Меллона. «Если данные, используемые для обучения этой модели, изначально предвзяты, то модель может остаться предвзятой, независимо от того, какие факторы вы учитываете в модели».

Возможность проводить исследования алгоритма рекомендаций X была бы чрезвычайно ценной, говорит Лаццарони, который работает над финансируемым ЕС проектом, исследующим альтернативные рекомендательные алгоритмы для социальных сетей. Большая часть работы Лаццарони включает симуляцию реальных социальных сетей для тестирования различных подходов. Но он говорит, что код, выпущенный X, не содержит достаточно информации, чтобы фактически воспроизвести его рекомендательный алгоритм.

«У нас есть код для запуска алгоритма, но у нас нет модели, которая вам нужна для запуска алгоритма», — говорит он.

Если бы исследователи смогли изучить алгоритм X, это могло бы дать представление, которое повлияло бы не только на социальные сети. Многие из тех же вопросов и проблем, которые возникли в отношении поведения алгоритмов социальных сетей, вероятно, вновь возникнут в контексте чат-ботов с искусственным интеллектом. «Многие из этих проблем, которые мы видим на платформах социальных сетей и в рекомендательных [системах], появляются очень похожим образом и в генеративных системах», — сказал Тикстаун. «Таким образом, вы можете экстраполировать проблемы, с которыми мы столкнулись с платформами социальных сетей, на проблемы, с которыми мы столкнемся при взаимодействии с платформами GenAI».

Лаццарони, который много времени уделяет симуляции наиболее токсичного поведения в социальных сетях, выражается еще более прямо. «AI-компании, чтобы максимизировать прибыль, оптимизируют большие языковые модели для вовлечения пользователей, а не для того, чтобы говорить правду или заботиться о психическом здоровье пользователей. И это та же самая проблема: они получают больше прибыли, но пользователи получают худшее общество или страдают от ухудшения психического здоровья».

SpaceX Илона Маска приобрела xAI Маска, о чем сообщили компании. Слияние «создаст самый амбициозный, вертикально интегрированный центр инноваций на Земле (и за ее пределами) с ИИ, ракетами, спутниковым интернетом, прямой связью с мобильными устройствами и ведущей в мире платформой информации в реальном времени и свободной речи», — написал Маск в своем обновлении.

Это также не первый случай, когда Маск приобретает одну из своих компаний. В прошлом году он объединил xAI и X. Недавно он объявил, что Tesla инвестирует 2 миллиарда долларов в xAI.

AI-компания, которая в настоящее время наиболее известна своим чат-ботом, генерирующим CSAM, может показаться странной для ракетной компании. Но SpaceX является ключом к последней схеме Маска по созданию центров обработки данных на базе ИИ в космосе. В своем обновлении Маск написал, что «глобальное потребление электроэнергии для ИИ просто не может быть обеспечено земными решениями», и что перемещение ресурсоемких операций в космос — это «единственное логичное решение». SpaceX всего несколько дней назад подала заявку в FCC на создание «орбитального центра обработки данных» путем запуска миллиона новых спутников.

Маск также утверждал, что в конечном итоге космические центры обработки данных позволят осуществлять другие достижения в освоении космоса. «Возможности, которые мы откроем, сделав космические центры обработки данных реальностью, будут финансировать и обеспечивать саморазвивающиеся базы на Луне, всю цивилизацию на Марсе и, в конечном итоге, экспансию во Вселенную». Примечательно, что это не первый раз, когда Маск делает громкие заявления о Марсе. В 2017 году он предсказал, что SpaceX отправит пилотируемые миссии на Марс к 2024 году.

Развивается…

Марк Цукерберг заявил, что на горизонте маячит конец многолетним убыткам Reality Labs на миллиарды долларов, последовавшим за увольнениями в подразделении метавселенной ранее в этом году. Генеральный директор сообщил, что ожидает «постепенно сокращать» убытки компании, поскольку она уделяет больше внимания AI-очкам и отходит от виртуальной реальности.

Выступая на квартальном отчете Meta за четвертый квартал, Цукерберг ясно дал понять, что изменения не произойдут в ближайшее время, но выразил оптимизм по поводу подразделения, которое только в 2025 году потеряло более 19 миллиардов долларов. «Что касается Reality Labs, мы направляем большую часть наших инвестиций на очки и носимые устройства в дальнейшем, одновременно с этим фокусируясь на том, чтобы сделать Horizon массовым успехом на мобильных устройствах и превратить VR в прибыльную экосистему в ближайшие годы», — сказал он. «Я ожидаю, что убытки Reality Labs в этом году будут похожи на прошлогодние, и это, вероятно, будет пик, поскольку мы начнем постепенно сокращать наши убытки в дальнейшем».

Компания уволила более 1000 сотрудников из Reality Labs ранее в этом месяце, закрыла три VR-студии и объявила о планах закрыть свое приложение для VR-встреч. Meta также приостановила планы по выпуску VR-гарнитур Horizon OS от сторонних производителей. Вместо этого Meta делает ставку на свой бизнес умных очков и носимых устройств, который более органично вписывается в видение Цукерберга по созданию «сверхинтеллекта» на основе ИИ. «сверхинтеллекта«.

Во время звонка Цукерберг отметил, что продажи умных очков Meta «более чем утроились» в 2025 году, и намекнул на более масштабные планы относительно AR-очков. «Они [AI-очки] смогут видеть то, что видите вы, слышать то, что слышите вы, разговаривать с вами и помогать вам в течение дня, а также показывать вам информацию или генерировать пользовательский интерфейс прямо в вашем поле зрения», — сказал он.

Продолжение следует…

LinkedIn давно является платформой для демонстрации профессиональных достижений. Теперь компания, учитывая рост популярности vibe coding, позволяет пользователям демонстрировать свои навыки работы с различными инструментами кодирования на основе ИИ прямо в своих профилях.

Компания сотрудничает с Replit, Lovabl, Descript и Relay.app для внедрения этой функции и работает над интеграцией с GitHub, также принадлежащим Microsoft, и Zapier. LinkedIn всегда позволял пользователям добавлять в свои профили различные навыки и сертификаты. Однако особенность последнего обновления заключается в том, что пользователи не сообщают о своих квалификациях самостоятельно. Вместо этого LinkedIn позволяет компаниям-разработчикам ИИ-инструментов оценивать относительный уровень навыков человека и присваивать уровень владения, который отображается непосредственно в его профиле.

Например, разработчик ИИ-приложений Lovabl может присудить кому-то «бронзу» в «vibe coding», в то время как платформа Replit использует числовые уровни, а Relay.app может определить, что кто-то имеет «средний» уровень «AI Agent Builder», согласно скриншотам, опубликованным LinkedIn. Эти уровни должны динамически обновляться по мере накопления опыта использования соответствующих инструментов, как сообщили в LinkedIn.

Lovabl's vibe coding rating system.

Система оценки «vibe coding» от Lovabl. (LinkedIn)

Конечно, это обновление также появляется в то время, когда компании использовали те же самые ИИ-инструменты для увольнения тысяч сотрудников. Таким образом, хотя демонстрация навыков «vibe coding» может иметь ценность, многие работники, вероятно, не в восторге от того, что уступают еще больше позиций ИИ. Когда я спросил об этом главу отдела карьерных продуктов LinkedIn Пэта Уилана, он сказал, что

специализированные навыки ИИ являются все более важным сигналом для рекрутеров, и последнее обновление облегчит им оценку навыков кандидатов. Но он добавил, что намерение состоит не в том, чтобы сделать специализированные навыки ИИ единственным фокусом. «Дело не столько в замене каких-либо других существующих сигналов, сколько в демонстрации новых способов работы людей», — сказал он Engadget. «И как нам предоставить проверяемый сигнал как работодателям, так и другим людям, просматривающим их профиль, о том, что они действительно регулярно используют эти инструменты».

Meta начала блокировать ссылки на ICE List — веб-сайт, который собирает информацию об инцидентах с участием сотрудников Иммиграционной и таможенной службы (ICE) и пограничного патруля, а также содержит тысячи имен их сотрудников. Похоже, именно последнее обстоятельство побудило Meta принять меры, о чем впервые сообщил Wired.

ICE List — это краудсорсинговая Wiki, которая описывает себя как «независимо поддерживаемый общедоступный проект документирования, посвященный деятельности по обеспечению соблюдения иммиграционного законодательства» в США. «Его цель — записывать, организовывать и сохранять проверяемую информацию о правоприменительных действиях, агентах, объектах, транспортных средствах и связанных с ними инцидентах, которая иначе осталась бы разрозненной, труднодоступной или недокументированной», — говорится на сайте.

Помимо заметных инцидентов, на сайте также перечислены имена отдельных агентов, связанных с ICE, CBP и другими агентствами DHS. Согласно Wired, создатели сайта заявили, что большая часть этой информации была получена в результате «утечки», хотя, по всей видимости, она основана в основном на общедоступных профилях LinkedIn. Как отмечает Wired:

Сайт стал вирусным в начале этого месяца, когда было заявлено, что в него загружен утечка данных 4500 сотрудников DHS, но анализ WIRED показал, что список в значительной степени опирался на информацию, которую сотрудники публично размещали о себе на таких сайтах, как LinkedIn.

Ссылки на ICE List широко распространялись в течение нескольких недель, в том числе на платформах Meta. В Threads есть многочисленные ссылки на сайт, некоторые из которых относятся к предыдущим неделям. Однако теперь при нажатии на ранее опубликованные ссылки появляется сообщение о том, что ссылку нельзя открыть. Пользователи, пытающиеся опубликовать новые ссылки в Threads или Facebook, также видят сообщения об ошибках. «Публикации, которые выглядят как спам в соответствии с нашими правилами сообщества, блокируются в Facebook, и их нельзя редактировать», — говорится в уведомлении.

В ответ на запрос о комментарии представитель Meta указал на политику конфиденциальности компании, запрещающую раскрытие персональных данных (PII). Компания не уточнила, почему она решила начать блокировать веб-сайт после нескольких недель, или считает ли она общедоступные профили LinkedIn нарушением своих правил против доксинга.

Однако это не первый случай, когда Meta удаляет публикации пользователей, отслеживающие информацию о действиях ICE. Ранее социальная сеть удалила группу в Facebook, которая отслеживала случаи наблюдения за сотрудниками ICE в Чикаго под давлением Министерства юстиции.

Есть информация для Карриссы? Связаться с ней можно по электронной почте, в X, Bluesky, Threads, или отправьте сообщение @karissabe для конфиденциального чата в Signal.

TikTok достиг мирового соглашения по нашумевшему иску о зависимости от социальных сетей, тем самым избежав судебного процесса, отбор присяжных по которому должен был начаться во вторник. Условия сделки, о которых сообщила газета The New York Times, не разглашаются.

Мировое соглашение TikTok достигнуто примерно через неделю после того, как Snap достиг мирового соглашения по тому же делу. Ожидается, что судебный процесс в Лос-Анджелесе продолжится только с участием Meta и YouTube в качестве ответчиков. Марк Ланье, адвокат истца, заявил в своем заявлении для NYT, что они «довольны» урегулированием и что это «хорошее решение». TikTok не сразу ответил на запрос о комментарии.

Судебный процесс вытекает из иска, поданного в 2023 году жительницей Калифорнии, известной в судебных документах как «К.Г.М.». Она подала в суд на Meta, Snap, TikTok и YouTube, утверждая, что их платформы вызывают зависимость и нанесли ей вред в детстве. Судья по этому делу ранее распорядился, чтобы руководители компаний, в том числе Марк Цукерберг и Адам Моссери, дали показания. По данным The New York Times, главный руководитель YouTube Нил Мохан, скорее всего, также будет давать показания.

Это первый из нескольких громких судебных исков против компаний, работающих в сфере социальных сетей, который дошел до суда в этом году. Ожидается, что Meta предстанет перед судом в Нью-Мексико в начале февраля по делу, возбужденному генеральным прокурором штата, который утверждает, что Facebook и Instagram способствовали причинению вреда детям. TikTok и Snap совместно сталкиваются с более чем дюжиной других судебных процессов в судах Калифорнии в этом году.

 

Copyright (c) 2000-2026 gdgt.ru

При использовании любых материалов с сайта обязательно указание gdgt.ru в качестве источника.
Все авторские и исключительные права в рамках проекта защищены
в соответствии с положениями 4 части Гражданского Кодекса Российской Федерации.