Права на видеоролик с изображением актера стали предметом юридического спора.
Как борьба за правду в информационном потоке меняет современный язык.
Сможет ли дипфейк помочь 40-летнему мужчине за решёткой?
Дипфейки продолжают усиливать свое влияние в цифровом мире, и 2023 год не стал исключением. С каждым днем определить подделку становится всё более затруднительным, что акцентирует внимание на вопросах этичности и безопасности в современном обществе. В этой статье MTS AI рассказывает, когда и как появились первые дипфейки, для чего они применяются и как их распознать.
Технологии идут вперёд также, как и способы обхода систем аутентификации.
Ученые из Лондона показали, как сложно людям распознать искусственную речь.
Телеведущий из Великобритании посетовал на распространение в социальной сети Facebook* дипфейк-аферы с его участием.
Эксперты с 99% успехом смогли обмануть систему безопасности, потратив на это меньше минуты.
Распространение слухов в сети и кибербуллинг теперь стали преступлением.
Цифровые мошенники создают компрометирующие материалы о своих жертвах, а затем долго и безжалостно их шантажируют.
Как пройдут следующие президентские выборы с беспрецедентным количеством дипфейков и прочих поддельных материалов?
Технология преобразования текста в речь стала новым бизнесом в даркнете.
Как оказалось, генеративный ИИ вполне может помочь с быстрым заработком, нужно лишь найти востребованную нишу.
Эксперты «Лаборатории Касперского» проанализировали объявления на форумах в даркнете.
Новый сервис позволяет создать цифровую личность по видео- и аудиозаписям «исходника».
Телеведущие осуждают Америку и призывают страну к союзу с Китаем.
С появлением искусственного интеллекта киберпространство разделилось на "до" и "после".
Эффект зрительного контакта NVIDIA направляет глаза пользователя на камеру во время видеоконференций.
Новый набор правил, жестко ограничивающий услуги провайдеров дипфейк-услуг будет принят 10 января следующего года.
Технология определяет дипфейк-видео в реальном времени с точностью до 96%