避免黑产使用大模型推断用户隐私已迫在眉睫
避免黑产使用大模型推断用户隐私已迫在眉睫瑞士苏黎世联邦理工学院的研究者发现,为ChatGPT等聊天机器人提供支持的大型语言模型可以从看似无害的对话中,准确推断出数量惊人的用户个人信息,包括他们的种族、位置、职业等。
瑞士苏黎世联邦理工学院的研究者发现,为ChatGPT等聊天机器人提供支持的大型语言模型可以从看似无害的对话中,准确推断出数量惊人的用户个人信息,包括他们的种族、位置、职业等。
硅谷圈又双叒叕要地震了?
在可信AI的世界里,需要的不仅是理性
或许只有用大模型来监督大模型,才能出现超越人类的人工智能。
美国财政部刚刚公布了全新禁令,禁止美国人对某些终端用途的人工智能,以及使用特定计算能力的系统进行投资;而即使是开发未被禁止的AI系统或芯片相关交易,也需要上报。
芯东西6月21日消息,据The Information报道,研发出世界最大芯片的明星AI芯片独角兽Cerebras Systems已向证券监管机构秘密申请IPO。
十多位OpenAI员工联名吹哨:前沿AI公司会隐瞒风险,内部监管机制就是摆设!
推动金融大模型高质量发函,关键是要妥善处理好通用模型与专用模型、模型能力与语料输入、模型应用与金融监管三大关系。
这两天,AI圈的瓜全被马斯克LeCun承包了。不论是在AI安全监管,还是xAI使命上,两人已经开启了激烈的隔空骂战。
最近美国众议院通过的这项议案,对在美从事AI工作的个人施加了更加严格的限制。如果法案通过,在美从事AI工作的中国人,或将受到影响。