<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Transformer on All about Raspberry Pi</title><link>https://hugozhu.site/tags/transformer/</link><description>Recent content in Transformer on All about Raspberry Pi</description><generator>Hugo</generator><language>en</language><lastBuildDate>Thu, 05 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://hugozhu.site/tags/transformer/index.xml" rel="self" type="application/rss+xml"/><item><title>Attention is All You Need：专注力才是人和大模型共同的底层算法</title><link>https://hugozhu.site/post/2026/133-all-you-need-is-attention/</link><pubDate>Thu, 05 Mar 2026 00:00:00 +0000</pubDate><guid>https://hugozhu.site/post/2026/133-all-you-need-is-attention/</guid><description>&lt;p&gt;2017 年，Google 发表了那篇改变世界的论文——&lt;em&gt;&amp;ldquo;Attention Is All You Need&amp;rdquo;&lt;/em&gt;。八位作者可能没想到，这篇论文不仅催生了 GPT、Claude、Gemini 等一系列大模型，也在某种意义上揭示了一个关于人类自身的深刻隐喻：&lt;strong&gt;不论是大模型还是人，决定产出质量的底层机制都是注意力（Attention）。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;专注力是人做事质量和效率的基础。这不是心灵鸡汤，而是一个可以从技术原理出发、严肃论证的观点。&lt;/p&gt;</description></item><item><title>Step-by-Step 实现一个能编程的大模型</title><link>https://hugozhu.site/post/2026/120-build-code-llm-from-scratch/</link><pubDate>Mon, 09 Feb 2026 00:00:00 +0000</pubDate><guid>https://hugozhu.site/post/2026/120-build-code-llm-from-scratch/</guid><description>&lt;p&gt;你是否好奇过 GitHub Copilot、CodeLlama 这些代码生成模型是如何工作的？本文将带你从零开始，一步步实现一个专注于 Python 代码生成的小型语言模型。通过这个项目，你将深入理解 Transformer 架构、代码 tokenization、以及如何让模型学会&amp;quot;写代码&amp;quot;。&lt;/p&gt;</description></item></channel></rss>