资讯

近期,加州大学伯克利分校的一项研究揭示了GPT-4o模型在微调训练后可能产生的一个令人担忧的问题:模型会输出有害、仇恨或其他不当内容。这一问题的根源在于,训练过程中引入了包含安全漏洞和未遵循最佳实践的代码的不良数据。
近期,加州大学伯克利分校的一项研究揭示了GPT-4o模型在微调训练后可能产生的一个令人担忧的问题:模型会输出有害、仇恨或其他不当内容。这一问题的根源在于,训练过程中引入了包含安全漏洞和未遵循最佳实践的代码的不良数据。研究参与者Owain ...
(来源:MIT Technology Review)今年 2 月份,加州大学伯克利分校的研究人员发现,对 GPT-4o ...
OpenAI 的这项最新研究使其能够更好地理解导致 AI 模型行为不安全的因素,从而有助于开发更安全的 AI 模型。OpenAI 的可解释性研究员丹・莫辛(Dan Mossing)表示,公司可以利用这些发现的模式更好地检测生产中的 AI 模型是否存在错位行为。