玩酷网

标签: openai

OpenAI面临安全审查,将推出针对青少年的ChatGPT

OpenAI周二宣布,将为18岁以下用户推出专属ChatGPT使用体验,并配备家长控制功能。目前这家人工智能公司正致力于加强针对青少年的安全保护措施。(新浪财经)
当AI向AI购买时,我们信任谁?想象一下,未来你有了AI数字人,你的数

当AI向AI购买时,我们信任谁?想象一下,未来你有了AI数字人,你的数

当AI向AI购买时,我们信任谁?想象一下,未来你有了AI数字人,你的数字人比你的手指移动得更快,一个由人工智能驱动的代理,它知道你的偏好,预测你的需求,并代表你行事。这不仅仅是一个响应提示的助手;它做出决定。它扫描选项,比较价格,过滤,并在数字世界中完成购买。而你在现实世界中度过每一天。这是许多人工智能公司正在建设的未来:代理人工智能。品牌、平台和中介机构将部署自己的人工智能工具和代理,以优先考虑产品、定位报价和达成交易,创造一个新的宇宙级数字生态系统,在这个生态系统中,机器与机器对话,人类徘徊在循环之外。最近有报道称,OpenAI将在ChatGPT中集成一个结账系统,这让我们对未来有所了解——购买可以很快在平台内无缝完成,消费者不需要访问单独的网站。你会信任你的AI数字人帮你购物吗?企业ai数字人AI数字人
OpenAI面临安全审查 将推出针对青少年的ChatGPT

OpenAI面临安全审查 将推出针对青少年的ChatGPT

OpenAI周二宣布,将为18岁以下用户推出专属ChatGPT使用体验,并配备家长控制功能。目前这家人工智能公司正致力于加强针对青少年的安全保护措施。该公司表示,当OpenAI识别出用户为未成年人时,会自动为其匹配“适龄版ChatGPT”...

OpenAI聘请xAI前财务主管担任商业财务官

9月16日消息,据CNBC报道,OpenAI聘请了埃隆·马斯克(ElonMusk)旗下xAI的前财务主管MikeLiberatore担任这家人工智能初创公司的商业财务官,负责监督其巨额基础设施支出。Liberatore今年7月于xAI离职,任职仅三个月。公司发言人...

可独立工作超7小时!OpenAI发布GPT-5-Codex模型

当地时间9月15日,OpenAI发布了GPT-5-Codex模型,这是在GPT-5基础上专门为软件工程优化的版本,它是基于复杂的、现实世界的真实编程任务训练而来,例如,从头开始构建完整项目、添加新的功能和测试、执行大规模代码重构、进行...

OpenAI为Codex升级,推出新版GPT-5

OpenAI于周一宣布,将为其AI编程工具Codex推出新版GPT-5。该公司表示,这款名为“GPT-5-Codex”的新模型,其“思考”时间的分配比前代模型更具动态性,完成一项编程任务的耗时可从几秒到7小时不等。这一特性使其在智能体编程...
韩国专家在接受媒体采访时表示:因为我们不喜欢中国,不愿意正视他,所以没能觉察到中

韩国专家在接受媒体采访时表示:因为我们不喜欢中国,不愿意正视他,所以没能觉察到中

韩国专家在接受媒体采访时表示:因为我们不喜欢中国,不愿意正视他,所以没能觉察到中国科技发展的变化,如果你亲自去看一看,会发现中国对韩国构成的威胁是多么严重和危险。吴世正为什么突然对中国科技这么上心?关键是2024年底一款叫DeepSeek的AI模型冒头。DeepSeek是中国一家小公司搞出来的,在美国半导体管制的大环境下,还能跟OpenAI掰手腕,性能直逼顶级水平。吴世正发现全球AI相关专利七成出自中国,顶尖AI人才里中国背景的占了近一半。大疆无人机全球市场份额稳坐七成头把交椅,电动汽车销量也抢了全球四成蛋糕。韩国人却像没事人一样,继续沉浸在老印象里。韩国人对中国的看法,确实卡在几十年前的刻板模式。拿2024年的民调来说,81%的韩国受访者对中国持负面或非常负面态度,年轻人占比还更高。为什么会这样?媒体推波助澜是主因。从2002年起,韩国主流媒体就爱炒中国沙尘暴和雾霾怎么祸害韩国空气,甚至把这事儿写进教科书,搞得民众觉得中国就是污染源头。食品安全、新冠疫情这些热点,韩媒报道总带点有色眼镜,让人觉得中国神秘又危险。结果越不了解越排斥,越排斥越不碰,形成死循环。朝鲜半岛过去是中国藩属国,这段旧账让一些韩国人心里堵得慌。他们通过“去中国化”来找存在感,比如抢春节、端午这些传统节日的“正统”帽子。美国的影响更雪上加霜,中美关系一紧张,韩国媒体对中国报道就更酸。加起来,韩国社会对中国认知越来越偏,专家多研究美日,懂中国的学者少得可怜。吴世正在《中央日报》上直戳这痛点:韩国对中国了解太少,这不是小事,是战略失误。中国科技这几年蹿得飞起,吴世正的文章一出,韩国那边炸锅了。他在采访里直说,因为不喜欢中国,不愿正眼瞧它,韩国人没察觉到变化。要是亲自去看看,就能明白中国对韩国的威胁有多大。中国在AI领域的专利申请量全球第一,2024年就占了七成多。人才方面,47%的顶尖AI专家是中国人,这帮人天天在实验室里搞创新,成果层出不穷。大疆的无人机不光卖得好,还用在农业、救援这些实用场景,全球七成市场不是白来的。电动汽车呢,中国品牌像比亚迪、宁德时代,电池技术领跑,销量占全球四成,韩国车企的份额被挤得喘不过气。DeepSeek一上线,韩国下载量破120万,年轻人爱用。但很快,韩国个人信息保护委员会介入,查出它把用户数据传给了字节跳动,没事先同意。2025年2月,DeepSeek在韩国应用商店下架,政府和企业纷纷限制使用,担心敏感信息外泄。这反应两面:一方面,中国AI牛到让韩国人眼红;另一方面,隐私担忧又放大成“威胁论”。吴世正就借这东风,提醒大家,别光盯着负面,中国科技实力是实打实的,忽略它韩国吃亏。韩国社会这认知偏差,不是天生的,是积累出来的。媒体长期负面报道,历史恩怨没消化,美国拉偏架,这些因素搅和一起,让韩国人对中国停留在“低端制造、污染大户”的老标签上。2025年3月的调查显示,20到39岁韩国人里,每10个有7个对中国负面,这年龄段正好是职场主力,影响决策。吴世正的观点戳中要害:韩国专家多,但懂中国的少。大学里,美日研究项目一大把,中国课题寥寥。企业也一样,三星、LG盯着欧美市场,对中国机会视而不见。结果,中国企业悄无声息地抢滩,韩国半导体出口到中国2024年还下滑了。中国科技的这些变化,对韩国冲击不小。拿半导体来说,韩国是老大,但中国华为、中芯国际这些年追得紧,2024年韩国对华出口虽创纪录,但份额在缩水。AI领域更明显,DeepSeek一出,韩国网民直呼震撼,有人说“中国AI超ChatGPT了”,但更多是警惕。吴世正强调,这“威胁”不是军事那种,而是经济、科技竞争。中国专利多,意味着标准制定权在手;人才多,意味着创新源头强劲。韩国如果继续“闭眼”,产业链就被动了。
OpenAI奥尔特曼:“从ChatGPT 推出以来没睡过一个好觉”

OpenAI奥尔特曼:“从ChatGPT 推出以来没睡过一个好觉”

[环球网科技综合报道]9月14日消息,据《财富》报道,OpenAICEO萨姆·奥尔特曼在接受采访时表示,“自从ChatGPT推出以来,我就没睡过一个好觉。奥尔特曼描述了监管这项如今每天有数亿人使用的技术的压力,他担忧的重点包括模型...
OpenAI五年后将微软分成削减至8%,保留500亿美元收入

OpenAI五年后将微软分成削减至8%,保留500亿美元收入

OpenAI预计,到2030年,它将与商业合作伙伴分享约8%的收入,其中包括微软。据TheInformation,这一比例低于目前的20%。报道称,这两个数字之间的差额意味着OpenAI将为自己保留超过500亿美元的额外收入。报告并未明确这是累计...
他写哈利波特同人也创办OpenAI哈利波特同人作者预测AI灭世人工智能有99.5

他写哈利波特同人也创办OpenAI哈利波特同人作者预测AI灭世人工智能有99.5

他写哈利波特同人也创办OpenAI哈利波特同人作者预测AI灭世人工智能有99.5%的可能性会杀死你。这是硅谷版世界末日传教士EliezerYudkowsky的最新论点。【图1】Yudkowsky用现在的话说,是个不折不扣的斜杠青年,是MIRI创始人,也是著名的哈利波特同人文作者。但最引人注目的身份则是一手缔造OpenAI和谷歌DeepMind的中之人。八年级辍学、AI知识全靠自学成才......奥特曼、马斯克纷纷引用他的观点,AI教父Hinton、LeCun则批评他的极端。就是这样一个评价两极分化严重的人,却成为了硅谷大佬们争先恐后的座上宾。他说,他的目标是阻止AI朝着超级智能发展,因为这事关整个人类的生死存亡。没有妥协的余地,即使是llya的公司也应该被关闭。也许你对EliezerYudkowsky还不太熟悉,但他的名字在硅谷可以说是大名鼎鼎。【图2】EliezerYudkowsky出生在芝加哥的一个东正教犹太家庭,因为慢性健康问题,在八年级后就早早地辍学回家。没有学校文凭,取而代之的是,他如饥似渴地阅读科幻小说,自学计算机科学,并与一群主张科技乐观主义的未来学家们在网上交流。也就是那时,他被"奇点"这个概念所深深吸引,即假设中人工智能超越人类智能的未来转折点,于是他立志要创建AGI,并坚信AGI即将到来。但当他来到硅谷后,却发现要创建对人类友好的人工智能其实相当困难,主要还是以下三个原因:-正交性:智力不等同于仁慈,AI不会因为变得更聪明而自动变得更友好。-工具性融合:任何强大的、以目标为导向的AI系统都有可能采取对人类不利的手段,比如在回形针最大化器实验中,一旦AI认为人类身体内的铁元素可以用来制作回形针,那么为了保证最大化生产回形针,AI将会把人类视作资源的一部分。-情报爆炸:AI能力可能在短时间内急剧飙升,导致迅速出现不可控的超级智能。从此之后,他开始持续关注AI安全问题,也成为了硅谷最早警告AI风险的"传教士"之一。Yudkowsky曾表示:人类注定要灭亡,我不会继续打一场失败的战斗来使人工智能与人类价值观保持一致,而是将注意力转移到帮助人们接受自己的命运上。此外他还在伯克利创建了MIRI研究所,致力于研究先进人工智能的风险。【图3】虽然他极端悲观的AI末日论说法颇受业界争议,连AI教父Hinton都明确表示过Yudkowsky的主张过于偏颇,但不可否认的是,他在一定程度上影响了整个硅谷。无论是OpenAI的奥特曼,还是马斯克在内的AI科技巨头,都曾在公开场合引用他的观点,奥特曼甚至曾表示,Yudkowsky在他创办OpenAI的决定中,发挥了关键性作用,而且他值得一座诺贝尔和平奖。不仅如此,谷歌在AI领域有所成就也离不开他的功劳。2010年时,就是他为初创公司DeepMind的创始人牵线搭桥,将其介绍给了风险投资家PeterThiel,Thiel从此成为了DeepMind的第一位主要投资者。后面谷歌在2014年收购了DeepMind,而DeepMind的联合创始人DemisHassabis如今正负责监督谷歌的AI工作。除了在AI安全领域的贡献,让Yudkowsky在硅谷声名鹊起的另一个原因,则是他对硅谷理性主义的引领。如今硅谷科技公司中的年轻一代,绝大多数都是坚定的理性主义者,追根溯源正是受到了Yudkowsky的作品影响。而这本书便是哈利波特的同人文——《哈利·波特与理性之道》。【图4】在这本书中,哈利波特从小接受科学训练、逻辑思维和理性教育,用科学探索魔法世界。原著中的事件都被理性重构改写,不仅关注魔法如何使用,还探究魔法原理和背后的逻辑,还经常涉及像贝叶斯推理、实验设计、概率思维等知识。再比如说,Yudkowsky的另一本有关《龙与地下城》的同人小说,其中也包含了他对决策理论的诸多看法。而最近他和MIRI总裁NateSoares合著的新书《如果有人建造它,每个人都会死》,也是他们多年来一直向人工智能内部人士提出的案例提炼版,当中他公开抛出了有关超级智能的最终预测。【图5】他认为,目前很多科技公司,包括Anthropic、OpenAI在内,在构建软件模型时,其实并不清楚内部的运作逻辑,所追求的"炼金术"超越了科学理解范畴。所以一旦模型能力到达某种程度,现有的AI对齐技术(如强化学习、微调等)将不可避免地失效,从而忽略人类指令。最终AI不仅掌握了极大的能量,在资源使用、决策等方面也会脱离人类控制,人类可能在毫无察觉的时候就被潜移默化地边缘化取代,以一种渐进式的方式消失,而非像科幻电影中所描述的那样,会出现一场和机器人的生死存亡的战争。Yudkowsky认为,现在已经到了该报警的阶段,这不是危言耸听,人类正在忽略真正的风险。在谈及硅谷这些追求创造超级智能的科技公司,Yudkowsky表示它们每一家都应该被关闭,Anthropic相对较好,而OpenAI明显最差,但诚然重视AI安全如llya,Yudkowsky也一视同仁地认为llya的公司也需要被停止,因为它们本质上都没有区别。不过随着时间的推移,他不再精确预测超级人工智能何时才会被开发出来,当结果注定的时候,过程显得那么无关紧要。正如他回复网友时,所采用的这个比喻:预测掉入热水中的冰块何时融化,比知道结果注定是一杯温水,要困难得多。【图6】而他正在试图做的,是告诉人们,这里将会有一杯温水。