transformer有可能等于图灵机?是不是吹的有点夸大了?
有人看得懂这篇论文来说说吗
transformer有可能等于图灵机?是不是吹的有点夸大了?
有人看得懂这篇论文来说说吗
就冲这篇文章出现在iclr而不是stoc/focs/ccc大概就能知道是什么样的工作了。
题外话,computational complexity真应该设定成本科cs必修。无上限这不是很正常,哪怕是用多项式来计算,只要次数够高也能解决所有问题。有意思的问题是解决问题的能力与模型大小的关系,也就是这篇文章证明的non-uniform upper bound。
这不算什么吧
我就想知道,发表论文的这几位华人有上泥坛撸卡的吗?
这是间接证明利好NVDA,OpenAI的每一次突破都是帮NVDA把AI的故事继续讲下去。
没学过cs,不是有很多问题没有O(p(n))的算法吗?
他这个的意思就是有无限的算力就有无限图灵机强度的结果
所以奥特曼是简森的打手?
计算理论本科确实是必修的吧
我本科学校不是
只能说证明了方法可能上限比较高
COT长度越长hallucination问题可能越大,另外难以避免中间步骤出错
你是觉得后者更牛逼吗?截至目前,真正对ai有推动的工作有很多发在iclr的,stoc/focs/ccc的文章都对ai的发展没有一毛钱帮助。
人机对话又可以发好多文章啦