• 支持 TK
  • 微博

    • 看看最新
    • 随便看看
    • 过去一年
  • 精选

    • 净想好事
    • 安全合辑
    • 疫苗合辑
    • 读书合辑
  • 文档

    • 搜索说明
    • 百元好物
    • tk猴子

  • 支持
下个页面随便看看

© Copyright 2025. All rights reserved.

加入tk真爱粉群
tombkeeper

2025-03-16 17:06

原来是HE啊,那我放心了!//@出版人周筠:活见鬼//@斯文稗类:我上次就说了现在不是读者评论的问题,而是出版宣传就这么引导…冤冤相报何时了 🔗查看图片

脱缰小象王梓晗

2025-03-01 02:20

在小红书刷到一篇帖子介绍《许三观卖血记》,评论区有一个人问“he吗?受不了一点虐。”

………

阅读全文 >
阅读全文 >
tombkeeper

2025-03-16 13:18

听说 DOGE 开始砍 RFE 和 RFA 了[笑cry]

tombkeeper

2020-04-04 14:22

“自由欧洲电台”是 CIA 在 1949 年建的。直到 1971 年人们才知道背后是 CIA。电台的座右铭是“不自由社会中的自由媒体”。当然,在知道其每日新闻都是按照 CIA 心理战原则精心设计的之后,这个座右铭就显得颇为幽默了。

苏联解体后,自由欧洲电台应该是最不开心的机构之一,因为预算被砍了很多。所以他们后来又与时俱进,搞了“自由伊拉克电台”、“自由阿富汗电台”,等等。

针对中国的那个他们原本打算就叫“自由中国电台”,后来还是没敢这么干,把圆圈画大了一点,改为“亚洲”。

阅读全文 >
阅读全文 >
tombkeeper

2025-03-16 12:56

又测了一下。到今天为止,不能完成该编程任务的那几家还是不能完成。//@t0mbkeeper:刚才又测了一下。半年之后,不能完成编程任务的那几个还是不能完成。 DeepSeek v3 不仅可以完成而且比 v2.5 的代码质量更高。DeepSeek R1 也行,但不如 v3 完成的漂亮。

t0mbkeeper

2024-12-29 12:46

这几天很多人都表达了对 DeepSeek 3 训练成本大幅降低的惊叹。但也有人说这是“断章取义”,比如认为他们训练的只是 FP8 精度,强调他们训练用了大量高质量合成数据,并认为得到这些数据的过程所消耗的算力也应该算在训练成本里。

看了两边的观点之后我觉得好像都有道理,而我也没有资格在这个问题上做出评价。模型训练是大玩家们的游戏。我们能关注的还是模型应用。实验室的同学已经在测试 DeepSeek 3 了,具体好不好用也还是要用了才知道。

另外,今年夏天的时候,我用我自己设定的测试任务测了一下几个大模型。国内的大模型多数都不能完成我的编程任务(🔗网页链接 🔗网页链接)。只有当时的 DeepSeek 2.5 和另外一个能完成。

阅读全文 >
阅读全文 >
tombkeeper

2025-03-16 09:22

renew

t0mbkeeper

2024-05-20 07:14

#警方通报胖猫事件调查情况# 你们试试。或者让 ChatGPT 来也行。

阅读全文 >
阅读全文 >
tombkeeper

2025-03-16 09:06

领导,哪怕是县里的领导,也代表了不可冒犯不可质疑的飘渺而又随时凝结的慈父。臧否领导,就是意在慈父。而对于内心世界建立在慈父信仰之上的人来说,这无异于渎神。//@张天英tiry://@顾扯淡:我觉得这类人特别慕强,他眼里没有对错,领导做了什么不重要,反正只要这个位置上的人,那放个屁都是香的,也算某种思想钢印…//@一玶海岸:立志于为他根本就不认识的领导排忧解难……[挖鼻]//@凌晨刚醒:[笑cry] 🔗评论配图 //@纽太普同学:人家贴出来,他说人家编。人家贴来源,他闷声不响装没看见。右边可真是从不打会输的仗//@遗失创造力之人:开局一张图,博主开始编[吃瓜],编到博主没嘛了,他就高兴了[哈哈]

木岛主

2025-03-14 07:28

法门寺,领导来看丝绸……

阅读全文 >
阅读全文 >
1
...
153154
155
156157
...
6092