DDOS防御专家-提供超强DDoS高防/CC防护/大流量清洗服务!
当前位置:主页 > CC防护 > 正文

DDOS高防服务_服务器防火墙的配置与管理_精准

06-29 CC防护

DDOS高防服务_服务器防火墙的配置与管理_精准

我对系统故障和奇怪现象很着迷,特别是当系统在正常条件下运行时。不久前,我看到伊恩·古德费罗的一张幻灯片,让我笑了。将随机噪声输入预先训练好的网络中,网络将噪声作为已知对象进行分类。这就引出了几个问题。不同的预训练网络会看到相同的东西吗?不同的东西?百分之几的时间?网络中随机噪声是一个特定对象的最高置信度是多少?除了这些问题之外,神经网络真正"看到"的是什么?

这篇文章和相关的代码是我对这些意想不到的结果好奇的结果。幸运的是,PyTorch使这样的实验变得容易。为了可视化为什么网络会以某种方式对对象进行分类,cc攻击防御方案,我们将使用Captum一个模型解释性框架。完整的代码可以在下面的Github存储库中看到。

相关性

在我们开始之前,您可能想知道为什么这些都是相关的。在许多情况下,开发人员不是从头开始构建模型。他们正在从一个模型动物园获得框架和预先训练的网络作为出发点。此活动节省了时间,因为您不需要收集数据和进行初始培训的腿部工作。然而,这也意味着意想不到的问题会在陌生的地方突然出现。根据模型的用途和功能,这可能会对安全性和安全性产生影响。

预训练模型

预训练模型易于实例化,并允许您快速将数据发送给它们进行分类。使用这些模型,您不必指定模型定义或对它们执行培训,这是为您提前完成的,这意味着它们在您实例化之后就可以使用了。Torchvision库中预先训练的模型在由1000个类别组成的Imagenet数据集上进行训练。这里要记住的是,这个训练是针对图像中的单个对象,而不是包含多个对象的复杂图像,这会产生一些有趣的结果,但这是另一个时间的主题。从PyTorch的Torchvision库中提取预先训练过的模型很容易。这是一个导入所选模型的问题,其中pretrained参数设置为True。我还将模型设置为评估模式,因为在这些测试过程中不会发生任何训练,只是推断。

首先,ddos200g防御,我有一行代码,根据GPU是否可用,将设备设置为cuda或cpu。这些简单的测试不需要GPU,但由于我的机器中有一个GPU,所以我使用它。

1device="cuda"if torch.cuda.is\u available()else"cpu"

1234导入torchvision.models as modelsvgg16=models.vgg16(pretrained=True)vgg16.eval()vgg16.to(device)

此处提供了torchvision pretrained模型的列表。在我的测试中,我不想使用所有预先训练好的网络,因为那样会太多。我选择了以下5个网络

vgg16resnet18公司亚历克斯内特登塞内《盗梦空间》

我在选择这些网络时没有采用任何特定的方法。Vgg16和Inception在示例中使用得比较多,它们都是不同的,这是最大的影响因素。

生成含噪图像

我们需要一种自动生成含噪图像的方法,我们可以为神经网络提供反馈。对于这个任务,我使用了Numpy和PIL库的组合,并编写了一个小函数来返回包含随机噪声的图像。

12345678将Numpy作为npfrom PIL import image def gen\u image():image=(np.random.standard\u normal([256,256,3])*255).astype(np.uint8)im=Image.fromarray(Image)return im

这个函数的结果是一个像下面这样的图像。

变换图像

接下来我们要对噪声进行图像变换,将其转换成张量,并对其进行规格化。以下代码不仅用于我们的随机噪声,也用于我们可能要输入到预先训练的网络中进行测试的任何其他图像(因此调整大小和中心裁剪值)。

123456789101112def xform_image(image):transform=transforms.Compose([transforms.Resize(256)),transforms.CenterCrop(224),transforms.ToTensor(),transforms.Normalize([0.485,香港服务器防御DDoS,0.456,0.406],[0.229,0.224,0.225])])new_image=transform(image).to(device)new_image=new_image.unsqueze_0)return new_image

Getting Predictions

一旦我们有了转换后的图像,从实例化的模型中很容易得到预测。在本例中,我们假设来自xform\u image函数的返回称为image\u xform。在我用于测试的代码中,我将这些函数分解为两个不同的函数,但是为了简单起见,我将在这里把它们放在一起。基本上,我们将转换后的图像送入网络,通过softmax函数运行结果,使用topk函数检索分数,并预测单个顶部结果的标签ID.

1234 with torch.no_grad():vgg16_res=vgg16(image_xform)vgg16_output=F.softmax(vgg16_res,dim=1)vgg16分数,pred\u label\u idx=torch.topk(vgg16\u output,1)

Results

那么,现在我们已经基本了解了如何生成这些噪声图像并将它们输入预先训练的网络,结果是什么?在这个测试中,我决定生成1000张噪声图像,通过5个预先训练好的网络运行它们,并将它们放入一个熊猫数据框中进行快速分析。结果很有趣,有点出乎意料resnet18公司亚历克斯内特登塞内开端计数10001000100010001000意思是0.2269780.3282490.1472890.4094130.020204标准0.0679720.0718080.0386280.1483150.016490最小0.0749220.1279530.0610190.1391610.00596325%0.1782400.2788300.1205680.2910420.01164150%0.2236230.3241110.1430900.3877050.01588075%0.2705470.3733250.1711390.5113570.022519最大值0.4380110.5805590.3285680.8680250.198698不同预训练网络的噪声结果

从结果中可以看出,cdn高防是什么意思,其中一些网络预测噪声具有相当高的置信度,resnet18和densenet的最大值都超过50%。这一切都很好,但是这些网络在噪音中看到了什么?有趣的是,他们没有看到相同的东西。

Vgg16结果:偷了978水母14珊瑚礁7斗篷1Resnet18结果:水母1000最终结果:雨披942抹布58Densenet结果:铁链围栏893窗口屏幕37连锁邮件33门垫20瓦片屋顶16空间加热器1初始结果:开关155喜鹊123拼图102枕头85让83靛蓝81鸟舍69蜂窝32雨披26纸箱25捕鼠器24莎朗18玉米16连锁邮件16真空12窗口屏幕12开衫11美国白鹭9西兰花9钱包8沙洲7食蜂人5冰棍5洗碗机5锤头5铁丝网围栏44号养蜂场钉子4雨桶4阿什坎3泽西3号围嘴3小蓝鹭3蟑螂3信封2黄貂鱼2浴帘2停机坪2海星2迷你裙1手套1意大利灰狗1火柴棍1活页夹1扬声器1铲斗1耳朵1鞋店1手帕1送纸器1手杖1运动衫1抹布1蜈蚣1和服1

所有这些网络都看到了不同的东西。Resnet18绝对肯定它100%的时间都是水母,而《盗梦空间》则对它的预测信心很低,ddos攻击犯怎么防御,但看到的对象比其他网络多得多,我决定看看微软会在这篇博文的开头加上什么样的标题。在这个测试中,我使用了最少的摩擦,并使用了office365版本的PowerPoint。结果很有趣,因为不像imagenet模型试图对单个对象进行分类,PowerPoint试图对多个对象进行分类,以便为标题创建准确的描述。

结果并不令人失望。在我看来,噪声的图像被解释为一个马戏团。

透视图

这就引出了另一个问题,神经网络看到了什么使它认为噪声是一个物体?为此,我们可以使用一个专注于模型可解释性的工具,让我们了解网络正在"看到"什么。Captum是PyTorch的一个模型解释框架。我没有为此做任何太花哨的事情,只是使用了网站教程部分提供的代码作为示例。我确实添加了值为50的internal\u batch\u size参数,因为我在没有批处理的情况下,GPU上的内存很快就用完了。

对于这些可视化,我使用了两个基于梯度的属性和一个基于遮挡的属性。通过这些可视化,我们试图看到什么对分类器很重要,试图"看到"网络所看到的。我也使用了我预先训练过的resnet模型,但是你可以把代码改成其他任何预先训练过的模型

版权保护: 本文由 DDOS防御专家 原创,转载请保留链接: /ddos/70494.html

DDoS防御专家简介孤之剑
国内资深白帽子二十人组成员,前BAT资深网络安全工程师,知名网络安全站点板块大神,每年提交Google及微软漏洞,原sina微博负载插件开发者,现在整体防御复合攻击长期接受1-4.7T攻击,CC防护自主开发指纹识别系统,可以做到99.9999%的无敌防御。
  • 文章总数
  • 9324624访问次数
  • 建站天数

    QQ客服

    400-0797-119

    X