人工智能对抗人工智能:利用人工智能来检测深度造假和网络钓鱼

译文 精选
人工智能
这篇文章着眼于这些数字欺骗背后的技术,它们的社会影响,以及检测它们的人工智能驱动技术。

译者 | 涂承烨

审校 | 重楼

在当今的数字时代,深度造假技术和语音网络钓鱼策略的激增,数字通信的真实性和安全性带来了重大挑战。深度造假者操纵音频和视频,创造出令人信服的假冒内容,而深度造假者则利用语音模拟来欺骗个人,以泄露敏感信息。准确识别和减轻这些威胁对于保护个人和组织免受错误信息、欺诈和身份盗窃的潜在后果至关重要。

1.理解深度造假和钓鱼

深度造假是使用深度学习技术创建的,特别是生成式对抗网络(GANs),以生成或修改视频和音频录音,使它们看起来真实。这项技术可以高精度地交换人脸、模仿声音和改变表情。

另一方面,钓鱼公司使用语音工程来模拟可信的实体,欺骗受害者泄露机密数据。随着文本到语音技术的进步,创造出听起来与真人难以区分的合成声音变得更容易,放大了基于语音的诈骗的风险。

这些技术构成重大风险,包括破坏公众信任、影响政治环境,以及实施个人和公司欺诈。因此,开发一种强大的方法来检测和抵消深度造假和网络钓鱼行为是至关重要的。

2.识别深度造假和钓鱼的技术

深度造假的检测方法通常侧重于识别视觉和听觉上的不一致性。这些可能包括不自然的眨眼模式,口型错误,或说话节奏的不规则。对于网络钓鱼,指可以包括意外的呼叫来源、呼叫者背景噪声的差异以及语音模式或音调的异常。

3.深度学习方法

利用人工智能,特别是机器学习模型,为自动检测深度造假和网络钓鱼提供了一个很有前景的途径。通过在真实内容和被操纵内容的数据集上训练模型,这些系统可以学习区分真实材料和欺诈材料。

4.用于检测的代码样本

为了提供一个实际操作的例子,我们将概述用于检测深度假视频和钓鱼音频剪辑的简单代码示例。

5.深伪视频检测

我们将使用TensorFlow来构建一个卷积神经网络(CNN)模型,将视频分类为真的或假的。

import tensorflow as tf
from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense
from tensorflow.keras.models import Sequential

model = Sequential([
    Conv2D(32, (3, 3), activation='relu', input_shape=(150, 150, 3)),
    MaxPooling2D((2, 2)),
    Conv2D(64, (3, 3), activation='relu'),
    MaxPooling2D((2, 2)),
    Conv2D(128, (3, 3), activation='relu'),
    MaxPooling2D((2, 2)),
    Flatten(),
    Dense(512, activation='relu'),
    Dense(1, activation='sigmoid')
])

model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['accuracy'])

# Assume `train_generator` is a pre-defined generator that feeds data into the model
model.fit(train_generator, epochs=20, steps_per_epoch=100)

6.钓鱼音频检测

对于钓鱼检测,我们将使用Librosa库分析音频特征,以提取Mel-Frequency Cepstral系数(MFCCs),这是语音和音频分析的常见特征。

import librosa
import numpy as np
from tensorflow.keras import layers, models
from sklearn.model_selection import train_test_split

# Load and preprocess audio
audio, sr = librosa.load('path/to/audio.wav', sr=None)
mfccs = librosa.feature.mfcc(y=audio, sr=sr)

# Data preparation
X = np.array([mfccs.T])
y = np.array([0, 1])  # Labels: 0 for genuine, 1 for fake
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42)

# Model building
model = models.Sequential([
    layers.Flatten(input_shape=(X_train.shape[1], X_train.shape[2])),
    layers.Dense(256, activation='relu'),
    layers.Dropout(0.5),
    layers.Dense(1, activation='sigmoid')
])

model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

# Train the model
model.fit(X_train, y_train, epochs=50, batch_size=32, validation_data=(X_test, y_test))

结论

深度造假和网络钓鱼的出现给数字信息领域带来了新的挑战,威胁到信息的完整性和隐私。虽然这里提供的技术和代码示例提供了检测此类威胁的基础方法,但必须进行持续的研究和开发。人工智能和机器学习方面的创新对于增强检测能力至关重要,以确保我们能够有效地抵消数字欺诈和错误信息的不断演变的复杂性。

理解和解决这些挑战需要技术人员、决策者和公众的共同努力,制定道德准则和可靠的检测工具。随着技术的发展,提高安全意识和推进技术解决方案将是保护数字通信环境的关键。

译者介绍

涂承烨,51CTO社区编辑,省政府采购专家、省综合性评标专家、公 E 采招标采购专家,获得信息系统项目管理师、信息系统监理师、PMP,CSPM-2等认证,拥有15年以上的开发、项目管理、咨询设计等经验。对项目管理、前后端开发、微服务、架构设计、物联网、大数据、咨询设计等较为关注。

原文标题:AI Against AI: Harnessing Artificial Intelligence To Detect Deepfakes and Vishing,作者:venkataramaiah gude

责任编辑:华轩 来源: 51CTO
相关推荐

2022-06-20 11:05:58

通用人工智能机器人

2024-01-16 10:22:23

人工智能大型语言模GPT 4

2022-10-19 07:04:12

​人工智能云服务Alaas

2020-09-11 07:03:02

人工智能场景

2021-04-16 11:28:26

人工智能人工智能工程AI

2019-04-26 14:50:06

人工智能AI造假

2022-07-31 23:46:57

人工智能语言模型感知力

2022-07-25 14:10:07

人工智能金融语言

2020-04-17 10:14:47

人工智能AI客户服务

2021-08-13 09:47:58

人工智能保险业AI

2023-10-17 10:20:23

2022-01-19 00:08:26

人工智能AlphaGO计算机

2018-03-28 09:40:00

CITE人工智能馆

2015-10-10 09:34:52

人工智能机器学习

2022-09-23 08:51:01

人工智能AIROI

2020-02-10 20:16:04

程序员AI人工智能

2024-08-20 16:44:15

人工智能大脑地图

2022-10-14 11:10:48

人工智能智能建筑技术

2024-01-24 18:00:57

2023-05-05 14:02:59

人工智能聊天机器人
点赞
收藏

51CTO技术栈公众号