研究論文

AI 技術前沿
同樣的資料,不同的價值:為什麼 AI 正著讀學得比倒著讀好?
LLM 從左到右讀英文文本學得比從右到左好,但傳統資訊理論說兩個方向的資訊量一模一樣。一篇來自 NYU 和 CMU 的新論文用「epiplexity」概念解釋了這個矛盾,並揭示了資料品質的真正秘密。

AI 技術前沿
當 Shannon 不夠用:六位頂尖研究者聯手挑戰七十年資訊理論
Shannon 資訊理論統治了通訊和計算科學超過七十年,但一篇來自 NYU 和 CMU 的新論文指出,它在 AI 時代有根本性的盲點。這群橫跨學界與 OpenAI、Anthropic 的研究者,提出了 …

AI 技術前沿
AI 該學什麼?一篇論文重新定義「資訊」,讓資料選擇有了數學基礎
紐約大學與卡內基美隆大學聯手提出「epiplexity」概念,首度從數學上區分「有用的資訊」和「隨機雜訊」。這套理論不只挑戰了 Shannon 資訊理論的基本假設,更為 AI 開發中的資料選擇問題提供 …