AI安全
-
你的DeepSeek大模型私有化部署在“裸奔”!蓝典信安Ollama安全部署保姆级教程
在人工智能技术飞速发展的当下,大语言模型的应用日益广泛,而其安全性问题也逐渐凸显。近期,国产大模型 DeepSeek 的爆火,使得不少开发者通过 Ollama 工具将其部署在本地服…
-
NIST生成性AI与基础模型安全开发实践指南:核心框架与关键内容
作者简介:叶绍琛,蓝典信安董事长兼CEO,网络安全专家,人工智能安全研究者,公安部全国网警培训基地专家导师,中国下一代网络安全联盟常务理事,清华大学出版社网络安全教材作者,出版《移…
-
OECD《AI事件与相关术语定义》深度解读:AI安全事件的定义、分类与全球治理挑战
作者简介:叶绍琛,蓝典信安董事长兼CEO,网络安全专家,人工智能安全研究者,公安部全国网警培训基地专家导师,中国下一代网络安全联盟常务理事,清华大学出版社网络安全教材作者,出版《移…
-
中美AI监管差异:中国AIGC内容标识办法与美国加州AI透明法案深度剖析
引言 随着生成式AI技术的飞速发展,AI生成内容的透明性和可追溯性成为全球监管的重点。中国的《人工智能生成合成内容标识办法(征求意见稿)》和美国《加州AI透明法案》均针对生成式AI…
-
深度解读 | 欧盟AI法案vs欧洲委员会AI框架公约对比分析
前情回顾:2024年9月5日,欧洲委员会在维尔纽斯举行的司法部长会议上开放了首个全球性人工智能(AI)条约——《人工智能和人权、民主及法治框架公约》(CETS No. 225)供签…
-
欧盟人工智能法的下一步大棋?AI责任指令要升格为法规了?
随着人工智能(AI)技术的飞速发展,其在社会各个领域的应用带来了前所未有的机遇,同时也引发了一系列法律责任问题。为了应对这些挑战,欧盟委员会提出了人工智能责任指令(AILD),旨在…
-
大模型安全 | 生成式人工智能的内容安全风险与应对策略
随着人工智能技术的飞速发展,生成式人工智能大模型(以下简称“生成式大模型”)在内容生成方面展现出巨大的潜力,同时也带来了一系列内容安全风险。这些风险不仅涉及虚假信息的传播、数据隐私…
-
LangChain曝关键漏洞,数百万AI应用面临攻击风险
AI速读:LangChain是一个广泛使用的开源生成式人工智能框架,近期被发现存在两个严重的安全漏洞:CVE-2023-46229(服务器端请求伪造,SSRF)和CVE-2023-…
-
NgSecGPT开源网络空间安全大模型
随着OpenAI发布的ChatGPT在全球开启了人工智能新纪元,人工智能在各行各业的革命性应用开始席卷而来,在医疗、金融、法律等领域涌现出各类垂直行业开源大模型,AI赋能千行百业的…
-
网络安全产业拐点已至,网络安全进入AI人工智能赋能时代
自诞生以来,AI技术给信息和数字社会带来多维度变革,特别是近两年来生成式AI 和大模型技术的突破,推动一批新兴业态的出现,产生深远的影响。 在网络安全领域,如何将大模型的能力引入并…