Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Видеохостинг YouTube совместно с агентством по поиску талантов Creative Artists Agency представил технологию для отслеживания дипфейков с использованием образов знаменитостей. Инструмент, который назвали «технологией управления сходством» (likeness management technology), начнут тестировать в...
Технология «deepfake» несёт в себе глубокие этические последствия, усиливая опасения по поводу дезинформации и манипуляций. Плавно смешивая сфабрикованный контент с реальностью, дипфейки подрывают доверие к СМИ и общественному дискурсу. А так как образы людей эксплуатируются без их согласия, это...
Даже видео с любимыми знаменитостями может быть ловушкой для доверчивых.
Специалисты Palo Alto Networks обнаружили сеть мошеннических кампаний, использующих дипфейки известных личностей для обмана...
В онлайн-сообществах энтузиастов генеративного ИИ за несколько последних месяцев ощутимо выросло количество жалоб на FOMO — fear of missing out, «страх что-то пропустить».
Новости по самым разным направлениям развития «умных» систем выстреливают со всё нарастающей частотой — и отобрать среди...
Виталик Бутерин предложил способ борьбы с дипфейками
Бутерин заявил, что рост количества дипфейков, генерируемых искусственным интеллектом (ИИ), становится серьезной проблемой в цифровых коммуникациях. Мошенники подделывают аудио и видео, генерируя голос и изображение нужного человека. Особый...
Меня зовут Александр Паркин, я руководитель исследовательских проектов в Vision Labs. Сегодня хочу рассказать, какие бывают дипфейки лиц и как их детектировать. Фальшивых лиц становится всё больше и они выглядят всё убедительнее, поэтому без надежных инструментов для их обнаружения сейчас...
Еще недавно в ходу было такое мошенничество: позвонить от имени «сына», попавшего в беду, и попросить денег. Сегодня цифровой арсенал для подобного обмана продвинулся. С помощью технологий можно имитировать голос и воссоздать внешность для видеозвонка
Фото: Midjourney
В 2022 году только в США...
Кампании по дезинформации используют мощные инструменты, побуждающие правительства обращаться за опытом к стартапам в области искусственного интеллекта, которые могут помочь распознать дипфейки.
Злоумышленники используют искусственный интеллект для создания видеороликов, выдающих себя за...
Дипфейки продолжают усиливать свое влияние в цифровом мире, и 2023 год не стал исключением. С каждым днем определить подделку становится всё более затруднительным, что акцентирует внимание на вопросах этичности и безопасности в современном обществе. В этой статье MTS AI рассказывает, когда и как...
Ученые из Лондона показали, как сложно людям распознать искусственную речь.
Дипфейки — это синтетические медиа, которые имитируют голос или внешность реального человека. Они могут быть использованы для...
Цифровые мошенники создают компрометирующие материалы о своих жертвах, а затем долго и безжалостно их шантажируют.
Термином «дипфейк» («deepfake») принято обозначать фальшивые фотографии, аудио- и видеозаписи...
Мошенники клонировали голос директора банка в ОАЭ и использовали его для ограбления финучреждения. Они смогли похитить $35 млн.
В начале 2020 года управляющему банком позвонил человек, которого он принял за директора компании. Он заявил, что собирается провести
некую сделку, и банк должен...
Если Вам на форуме комфортно и уютно - присоединяйтесь!
Для этого ознакомьтесь с правилами проекта и пройдите регистрацию . Без регистрации Важные ветки форума не доступны .