<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Data-Quality on All about Raspberry Pi</title><link>https://hugozhu.site/tags/data-quality/</link><description>Recent content in Data-Quality on All about Raspberry Pi</description><generator>Hugo</generator><language>en</language><lastBuildDate>Fri, 27 Feb 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://hugozhu.site/tags/data-quality/index.xml" rel="self" type="application/rss+xml"/><item><title>高质量数据越多，大模型表现越优秀</title><link>https://hugozhu.site/post/2026/127-data-quality-llm-performance/</link><pubDate>Fri, 27 Feb 2026 00:00:00 +0000</pubDate><guid>https://hugozhu.site/post/2026/127-data-quality-llm-performance/</guid><description>&lt;p&gt;最近和几个做 AI 的朋友聊天，发现一个有趣的现象：很多人对大模型的信仰是&amp;quot;因为相信所以看见&amp;quot;——相信 AGI 会来，相信 scaling law 会继续有效，相信未来的模型会更强大。&lt;/p&gt;
&lt;p&gt;但我的观点恰恰相反：&lt;strong&gt;AI 信仰应该建立在&amp;quot;因为看见所以相信&amp;quot;&lt;/strong&gt;。而我们能看见什么？最直观的就是——&lt;strong&gt;高质量数据越多，大模型表现越优秀&lt;/strong&gt;。这不是信仰，是已经被反复验证的事实。&lt;/p&gt;</description></item></channel></rss>