post

Мошенники "заговорили" на казахском

Как используют ИИ аферисты, рассказали в МВД, передает Kazpravda.kz

Мошенники могут отправлять сообщения или звонки, имитируя голоса и текст, похожие на реальных людей – например, от имени банка, правоохранительных органов или ваших близких.

"Также аферисты могут использовать технологию Deepfake для создания поддельных изображений известных людей или родственников, чтобы быть убедительнее", — говорится в сообщении.

Обращайте внимание на нелогичные фразы и отсутствие эмоций.

Никогда не передавайте свои личные данные (ИИН, банковский счёт, пароли) и доверяйте только официальным источникам.

Центр ИИ мирового уровня появится в Астане

В Астане в здании сферического павильона Nur Alem создадут Международный центр искусственного интелл ...

  • 01.07.2025

Девочка выпала из окна дома в Темиртау

30 июня из окна, расположенного на третьем этаже, выпала девочка в Темиртау, передает Liter.kz со ссылко ...

  • 01.07.2025

Под эгидой "Духа Китай - Центральная Азия" строим более тесное сообщество единой судьбы КНР и стран ЦА

За три десятилетия после установления дипломатических отношений Китай и страны Центральной Ази ...

  • 01.07.2025

Подозреваемую в присвоении 31 млн тенге сотрудницу банка задержали в Москве  

Ей грозит наказание в виде лишения свободы сроком от семи до двенадцати лет с конфискацией иму ...

  • 20.06.2025