Мошенники “заговорили” на казахском: как аферисты используют ИИ, рассказали в полиции
17 мая, 2025


Фото: Оңалхан Өнерхан
Аферисты могут использовать технологию Deepfake для создания поддельных изображений известных людей или родственников, чтобы повысить убедительность обмана, передает Elordainfo.kz со ссылкой на Polisia.kz.
Как сообщили в ведомстве, злоумышленники нередко рассылают сообщения или совершают звонки, имитируя голос и манеру речи реальных людей — например, сотрудников банков, правоохранительных органов или близких собеседника.
«Обращайте внимание на нелогичные фразы и отсутствие эмоций в голосе. Никогда не передавайте личные данные — ИИН, номер банковского счёта, пароли. Доверяйте только официальным источникам», — подчеркнули в пресс-службе.
Похожие новости

31 июля, 2025
21-летний казахстанец устроился наркозакладчиком, чтобы закатить той

31 июля, 2025
Казахстанец получил 16 лет колонии за одурманивающий «сыр» из Таиланда

31 июля, 2025
Незаслуженную зарплату получали сотрудники подведомственного предприятия Минпрома

31 июля, 2025
Цены на перчатки завышены, локализация под вопросом: что выявила ВАП