📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
ChatGPT下架官方检测工具,承认AI文字无法鉴别
来源:“量子位”(ID:QbitAI),作者:梦晨
没有公告,OpenAI悄然关闭了AI文本检测工具,页面直接404了。
太多老师相信这玩意有效,大量冤枉学生用AI作弊,已经变成了一场猎巫运动。
准确率和瞎猜差不多
这个官方检测工具,准确率究竟有多低呢?
OpenAI自己给出的数据,只能正确识别**26%的AI生成文本,同时冤枉9%**的人类编写文本。
另外有人做过实验发现,市面上各种检测工具会把圣 经、美国宪法等历史文本都被判定可能为AI编写,总不能写下这些内容的历史人物都是时间穿越者吧?
但还是有很多老师试图用各种检测方法来检查学生作业。
最著名的一次,得克萨斯农工大学一位教授差点判定半个班的学生延毕。
目前的检测方法都能规避
网友指出,OpenAI同时开发生成和检测工具本身就是矛盾的。
如果一边做的好就意味着另一边没做好,同时还有可能存在利益冲突。
最早被称为“ChatGPT克星”的是普林斯顿本科生Edward Tian开发的GPTZero,用复杂性和长短句的变化来衡量文章是否由AI生成。
当时GPTZero计划专为教育工作者打造,老师可以把全班学生的作业丢进去检测。
但到了7月份,作者承认已放弃了检测学生作弊这个方向,计划下个版本的GPTZero将不再检测文本是否由AI生成,而是突出最像人写的部分。
就像数字到底是人计算的还是计算机完成的,早就没人在意了。
演讲者的稿是自己写的还是秘书写的,不是也没人在意吗。
人类行为学研究,正在用AI充当被试
无法区分AI和人类的内容,似乎也不全是坏事。
已经有心理实验用AI代替人类被试加速研究了。
Cell子刊上一篇文章指出,在精心设计的实验场景中,ChatGPT的反应与大约95%的人类参与者的反应呈相关性。
并且机器被试不会疲倦,使科学家能以前所未有的速度收集数据并测试有关人类行为的理论。
“人工智能可以改变社会科学研究的游戏规则,谨慎的偏见管理和数据保真度是关键。”
[1]
[2]
[3]
[4]
[5]
[6]