Ultraman发表了一篇长篇文章,解释了保证不再向青少年谈论自杀

作者: bet356亚洲版本体育 分类: 随心杂谈 发布时间: 2025-09-17 09:14
周二,OpenAI首席执行官Sam Altman发布了一篇博客文章,该文章称该公司正试图在青少年安全,自由和隐私之间找到平衡,并承认这些原则是矛盾的。 Ultraman Day发表了这篇文章,美国参议院举行了一次听证会,该听证会致力于分析参议院犯罪和反恐子公司委员会举行的AI Chatbots伤害,儿童的父母在与聊天机器人交谈后自杀。 Ultraman在帖子中写道:“我们应该从未满18岁以下的人身上识别出18岁以下的用户。”他补充说,该公司建立一个“年龄估计系统估计年龄的基于人们的使用方式。 Ultraman还表示,该公司计划对青少年施加各种规定,包括避免分心对话或参与G在有关自杀或自我伤害的对话中,“即使在创意写作环境中”,如果18岁以下的用户有自杀的想法,我们将尝试与父母联系,如果他们确实受到损害。” Ultraman在社交平台X上发布了整个博客文本,并说:“我不希望每个人都同意这些权衡,但重要的是要解释我们已经有冲突的决定。” 这是Ultraman博客上帖子的全文: 我们的某些原则是矛盾的,Nam想要解释我们在青少年安全,自由和隐私之间的紧张局势上做出的决定 保护使用AI的隐私对我们和社会非常重要。人们正在与AI谈论更多私人事物。这与过去几代技术不同,我们认为也许您拥有的最敏感的个人帐户之一。无论您是与医生谈论您的病史uation,我们认为将这些信息保密并提供更高水平的保护符合社会的最大利益。我们认为,与人们越来越回到敏感问题和私人问题的人,AI会谈需要相同的保护水平。我们将其推广到政策制定者。 组建我们具有高级安全功能,以确保您的数据是私人的,即使对于OpenAI员工也是如此。像其他特权类别一样,会有一些例外:例如,自动系统将监控潜在的严重虐待,以及最关键的风险威胁到一个人的生命,计划损害他人或潜在的大规模网络安全事件,可以增加手动受众的增加。 第二个原则是关于自由的。我们希望用户在广泛的安全性范围内使用我们的工具。随着我们的模型变得更加操纵,我们致力于提高用户的自由。例如,我们模型的默认行为不会导致太多谈话,但是如果成年用户ASKS,他们应该得到它。 Parain一个更困难的例子,默认情况下,该模型不应提供有关如何自杀的说明,但是如果成年用户在编写描述自杀的虚构故事时寻求帮助,则该模型应帮助请求。我们在里面说:“对待成年人”,尽可能地扩大自由,而不会造成伤害或破坏他人的自由。 第三个原则是关于保护年轻人。我们将青少年的安全放在隐私和自由之前。这是一项强大的新技术,我们认为未成年人需要严格保护。 首先,我们应该从18岁以下的年龄识别18岁以下的用户(CHATGPT适用于年龄13岁的用户)。我们建立了一个年龄估计系统,该系统根据人们的使用方式来估算年龄。如果您有任何疑问,我们将仔细采取行动,并使用18岁以下的经验。在某些情况下,我们也可能要求身份。我们知道这是成人隐私的妥协,但我们认为这是值得的。 我们将使用我们的服务将不同的政策应用于青少年。例如,Chatgpt习惯于(如果需要),即使在创意写作环境中,也不习惯于滥用对话,或者参加有关自杀或自我伤害的讨论。如果18岁以下的用户具有自杀态度,我们将尝试与用户的父母联系,如果不可能,我们将与当局联系,这很痛苦。现在,我们分享更多有关如何建立一个年龄型系统和新的父母控制以实现一切的信息。 我们意识到,这些原则是矛盾的,并非都同意我们解决这一冲突的方式。这是艰难的决定,但是在与专家交谈之后,我们认为这是最好的,并且希望在我们的目标上保持透明。 金融的官方帐户 24小时广播滚动滚动最新的财务和视频信息,并扫描QR码,以供更多粉丝(Sinafinance))

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!