<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Gea-Suan Lin&#039;s BLOG</title>
	<atom:link href="https://blog.gslin.org/feed/" rel="self" type="application/rss+xml" />
	<link>https://blog.gslin.org</link>
	<description>幹壞事是進步最大的原動力</description>
	<lastBuildDate>Tue, 21 Apr 2026 08:26:15 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
<atom:link rel="hub" href="https://pubsubhubbub.appspot.com"/>
<atom:link rel="hub" href="https://pubsubhubbub.superfeedr.com"/>
<atom:link rel="hub" href="https://websubhub.com/hub"/>
<atom:link rel="self" href="https://blog.gslin.org/feed/"/>
<site xmlns="com-wordpress:feed-additions:1">21326247</site>	<item>
		<title>168.95.192.1 擋 ICMP 的記錄</title>
		<link>https://blog.gslin.org/archives/2026/04/21/12995/168-95-192-1-%e6%93%8b-icmp-%e7%9a%84%e8%a8%98%e9%8c%84/</link>
					<comments>https://blog.gslin.org/archives/2026/04/21/12995/168-95-192-1-%e6%93%8b-icmp-%e7%9a%84%e8%a8%98%e9%8c%84/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Tue, 21 Apr 2026 08:26:15 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[DNS]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Network]]></category>
		<category><![CDATA[Service]]></category>
		<category><![CDATA[168.95.192.1]]></category>
		<category><![CDATA[dns]]></category>
		<category><![CDATA[hinet]]></category>
		<category><![CDATA[icmp]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12995</guid>

					<description><![CDATA[土城家的機器對 168.95.192.1 的監控跳出警報，翻了一下之前的 down/up 記錄都是五分鐘內會恢復，但這次特別久，不過 DNS 服務本身 (53/tcp &#38; 53/udp) 都還是正常的： Down 2026-04-21 15:47:27 PING 168.95.192.1 (168.95.192.1) 56(84) bytes of data. --- 168.95.192.1 ping statistics --- 47 packets transmitted, 0 received, 100% packet loss, time 47091ms Up 2026-01-28 03:04:37 Down 2026-01-28 03:02:14 PING 168.95.192.1 (168.95.192.1) 56(84) bytes of data. --- 168.95.192.1 ping statistics --- 47 &#8230; <a href="https://blog.gslin.org/archives/2026/04/21/12995/168-95-192-1-%e6%93%8b-icmp-%e7%9a%84%e8%a8%98%e9%8c%84/" class="more-link">Continue reading<span class="screen-reader-text"> "168.95.192.1 擋 ICMP 的記錄"</span></a>]]></description>
										<content:encoded><![CDATA[<p>土城家的機器對 168.95.192.1 的監控跳出警報，翻了一下之前的 down/up 記錄都是五分鐘內會恢復，但這次特別久，不過 DNS 服務本身 (53/tcp &amp; 53/udp) 都還是正常的：</p>
<pre>Down	2026-04-21 15:47:27	PING 168.95.192.1 (168.95.192.1) 56(84) bytes of data. --- 168.95.192.1 ping statistics --- 47 packets transmitted, 0 received, 100% packet loss, time 47091ms
Up	2026-01-28 03:04:37	
Down	2026-01-28 03:02:14	PING 168.95.192.1 (168.95.192.1) 56(84) bytes of data. --- 168.95.192.1 ping statistics --- 47 packets transmitted, 0 received, 100% packet loss, time 47091ms
Up	2026-01-04 14:53:03	
Down	2026-01-04 14:52:03	PING 168.95.192.1 (168.95.192.1) 56(84) bytes of data. From 172.16.0.1 icmp_seq=17 Destination Net Unreachable --- 168.95.192.1 ping statistics --- 17 packets transmitted, 0 received, +1 errors, 100% packet loss, time 16385ms
Up	2025-09-18 03:20:02	
Down	2025-09-18 03:18:07	PING 168.95.192.1 (168.95.192.1) 56(84) bytes of data. --- 168.95.192.1 ping statistics --- 10 packets transmitted, 0 received, 100% packet loss, time 219ms
Up	2025-05-17 00:09:50	
Down	2025-05-17 00:05:17	PING 168.95.192.1 (168.95.192.1) 56(84) bytes of data. --- 168.95.192.1 ping statistics --- 10 packets transmitted, 0 received, 100% packet loss, time 203ms</pre>
<picture><source type="image/webp" srcset="https://i.gslin.com/s/1776759546-0601c05b.webp" /><img decoding="async" src="https://i.gslin.com/s/1776759546-0601c05b.png" alt="" /></picture>
<p>新莊老家的倒是沒有被擋，理論上這組 DNS 服務應該是上 anycast 架構沒錯，但有這麼細嗎？</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/21/12995/168-95-192-1-%e6%93%8b-icmp-%e7%9a%84%e8%a8%98%e9%8c%84/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12995</post-id>	</item>
		<item>
		<title>幫 Claude Code 加上 status line</title>
		<link>https://blog.gslin.org/archives/2026/04/16/12993/%e5%b9%ab-claude-code-%e5%8a%a0%e4%b8%8a-status-line/</link>
					<comments>https://blog.gslin.org/archives/2026/04/16/12993/%e5%b9%ab-claude-code-%e5%8a%a0%e4%b8%8a-status-line/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Thu, 16 Apr 2026 04:32:37 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Software]]></category>
		<category><![CDATA[claude]]></category>
		<category><![CDATA[code]]></category>
		<category><![CDATA[context]]></category>
		<category><![CDATA[language]]></category>
		<category><![CDATA[large]]></category>
		<category><![CDATA[line]]></category>
		<category><![CDATA[llm]]></category>
		<category><![CDATA[model]]></category>
		<category><![CDATA[script]]></category>
		<category><![CDATA[size]]></category>
		<category><![CDATA[status]]></category>
		<category><![CDATA[window]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12993</guid>

					<description><![CDATA[LLM 在 context 愈來愈長以後準確度會下滑，有些人叫做 context rot，有些人用 context degradation，差不多在講類似的事情。在不同的 model 有不同的下滑曲線。 前幾天 CQD 在 Plurk 上提到可以用 status line 的功能把目前使用到的 context 大小顯示 status line 上面：(https://www.plurk.com/p/3ijzhoimal) 官方有列出來帶入 script 的資訊有哪些：「Customize your status line」，我自己是列了 model 資訊、context 資訊，還有 rate limit 資訊： [Opus 4.6 (1M context)] ▓░░░░░░░░░░░░░░░░░░░ 6% &#124; 5h (14:00): 15% &#124; 7d (04/18 14:00): 30% 這樣的確是方便不少，而且有看到資訊就會記得三不五時 /clear 清一下 context。]]></description>
										<content:encoded><![CDATA[<p><a href="https://en.wikipedia.org/wiki/Large_language_model">LLM</a> 在 context 愈來愈長以後準確度會下滑，有些人叫做 context rot，有些人用 context degradation，差不多在講類似的事情。在不同的 model 有不同的下滑曲線。</p>
<p>前幾天 <a href="https://cqd.tw/">CQD</a> 在 <a href="https://en.wikipedia.org/wiki/Plurk">Plurk</a> 上提到可以用 status line 的功能把目前使用到的 context 大小顯示 status line 上面：(<a href="https://www.plurk.com/p/3ijzhoimal">https://www.plurk.com/p/3ijzhoimal</a>)</p>
<picture><source type="image/webp" srcset="https://i.gslin.com/s/1776313617-24b10bfc.webp" /><img decoding="async" src="https://i.gslin.com/s/1776313617-24b10bfc.png" alt="" /></picture>
<p>官方有列出來帶入 script 的資訊有哪些：「<a href="https://code.claude.com/docs/en/statusline">Customize your status line</a>」，我自己是列了 model 資訊、context 資訊，還有 rate limit 資訊：</p>
<pre>[Opus 4.6 (1M context)] ▓░░░░░░░░░░░░░░░░░░░ 6% | 5h (14:00): 15% | 7d (04/18 14:00): 30%</pre>
<p>這樣的確是方便不少，而且有看到資訊就會記得三不五時 <code>/clear</code> 清一下 context。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/16/12993/%e5%b9%ab-claude-code-%e5%8a%a0%e4%b8%8a-status-line/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12993</post-id>	</item>
		<item>
		<title>OpenSSL 4.0.0 支援 ECH</title>
		<link>https://blog.gslin.org/archives/2026/04/15/12990/openssl-4-0-0-%e6%94%af%e6%8f%b4-ech/</link>
					<comments>https://blog.gslin.org/archives/2026/04/15/12990/openssl-4-0-0-%e6%94%af%e6%8f%b4-ech/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Wed, 15 Apr 2026 06:47:13 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[Library]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Network]]></category>
		<category><![CDATA[Privacy]]></category>
		<category><![CDATA[Security]]></category>
		<category><![CDATA[Software]]></category>
		<category><![CDATA[client]]></category>
		<category><![CDATA[ech]]></category>
		<category><![CDATA[encrypted]]></category>
		<category><![CDATA[hello]]></category>
		<category><![CDATA[openssl]]></category>
		<category><![CDATA[privacy]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12990</guid>

					<description><![CDATA[在 Lobsters 上看到 OpenSSL 4.0.0 的 release note：「OpenSSL 4.0.0」。雖然是 4.0.0，但裡面其實不算是大改版，這次比較吸引人的就是支援 ECH (Encrypted Client Hello) 了： Support for Encrypted Client Hello (ECH, RFC 9849). See doc/designs/ech-api.md for details. 記得目前 Cloudflare 已經在 service 端採用了，接下來愈來愈多 client 支援就會有更多人使用。 之前有提過，這個算是隱私基礎建設的一環，通常是搭著 DNS over HTTPS 或是 DNS over TLS 用，避免 ISP 得知流量的目的地。]]></description>
										<content:encoded><![CDATA[<p>在 <a href="https://lobste.rs/">Lobsters</a> 上看到 <a href="https://en.wikipedia.org/wiki/OpenSSL">OpenSSL</a> 4.0.0 的 release note：「<a href="https://github.com/openssl/openssl/releases/tag/openssl-4.0.0">OpenSSL 4.0.0</a>」。雖然是 4.0.0，但裡面其實不算是大改版，這次比較吸引人的就是支援 ECH (<a href="https://en.wikipedia.org/wiki/Encrypted_Client_Hello">Encrypted Client Hello</a>) 了：</p>
<blockquote><p>Support for Encrypted Client Hello (ECH, RFC 9849). See doc/designs/ech-api.md for details.</p></blockquote>
<p>記得目前 <a href="https://en.wikipedia.org/wiki/Cloudflare">Cloudflare</a> 已經在 service 端採用了，接下來愈來愈多 client 支援就會有更多人使用。</p>
<p>之前有提過，這個算是隱私基礎建設的一環，通常是搭著 <a href="https://en.wikipedia.org/wiki/DNS_over_HTTPS">DNS over HTTPS</a> 或是 <a href="https://en.wikipedia.org/wiki/DNS_over_TLS">DNS over TLS</a> 用，避免 ISP 得知流量的目的地。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/15/12990/openssl-4-0-0-%e6%94%af%e6%8f%b4-ech/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12990</post-id>	</item>
		<item>
		<title>GitHub 官方正式支援 Stacked PR 了</title>
		<link>https://blog.gslin.org/archives/2026/04/14/12989/github-%e5%ae%98%e6%96%b9%e6%ad%a3%e5%bc%8f%e6%94%af%e6%8f%b4-stacked-pr-%e4%ba%86/</link>
					<comments>https://blog.gslin.org/archives/2026/04/14/12989/github-%e5%ae%98%e6%96%b9%e6%ad%a3%e5%bc%8f%e6%94%af%e6%8f%b4-stacked-pr-%e4%ba%86/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Mon, 13 Apr 2026 21:44:34 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Programming]]></category>
		<category><![CDATA[Software]]></category>
		<category><![CDATA[engineering]]></category>
		<category><![CDATA[github]]></category>
		<category><![CDATA[pr]]></category>
		<category><![CDATA[pull]]></category>
		<category><![CDATA[request]]></category>
		<category><![CDATA[software]]></category>
		<category><![CDATA[stacked]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12989</guid>

					<description><![CDATA[GitHub 官方總算是支援 stacked PR 了：「GitHub Stacked PRs (via)」。 在這之前算是團隊合作上面比較麻煩的一點，有些 PR 需要基於其他還沒有被併入 dev branch 的 PR，以往會需要透過 3rd-party 的工具來處理，像是 ejoffe/spr 這樣的工具，現在有機會轉成原生的。這功能等十幾年了...]]></description>
										<content:encoded><![CDATA[<p><a href="https://en.wikipedia.org/wiki/GitHub">GitHub</a> 官方總算是支援 stacked PR 了：「<a href="https://github.github.com/gh-stack/">GitHub Stacked PRs</a> (<a href="https://news.ycombinator.com/item?id=47757495">via</a>)」。</p>
<picture><source type="image/webp" srcset="https://i.gslin.com/s/1776116023-32b89fe3.webp" /><img decoding="async" src="https://i.gslin.com/s/1776116023-32b89fe3.png" alt="" /></picture>
<p>在這之前算是團隊合作上面比較麻煩的一點，有些 PR 需要基於其他還沒有被併入 dev branch 的 PR，以往會需要透過 3rd-party 的工具來處理，像是 <a href="https://github.com/ejoffe/spr">ejoffe/spr</a> 這樣的工具，現在有機會轉成原生的。這功能等十幾年了...</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/14/12989/github-%e5%ae%98%e6%96%b9%e6%ad%a3%e5%bc%8f%e6%94%af%e6%8f%b4-stacked-pr-%e4%ba%86/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12989</post-id>	</item>
		<item>
		<title>Servo 0.1.0 與 LTS</title>
		<link>https://blog.gslin.org/archives/2026/04/14/12988/servo-0-1-0-%e8%88%87-lts/</link>
					<comments>https://blog.gslin.org/archives/2026/04/14/12988/servo-0-1-0-%e8%88%87-lts/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Mon, 13 Apr 2026 21:11:52 +0000</pubDate>
				<category><![CDATA[Browser]]></category>
		<category><![CDATA[Computer]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Network]]></category>
		<category><![CDATA[Security]]></category>
		<category><![CDATA[Software]]></category>
		<category><![CDATA[browser]]></category>
		<category><![CDATA[fix]]></category>
		<category><![CDATA[long]]></category>
		<category><![CDATA[lts]]></category>
		<category><![CDATA[release]]></category>
		<category><![CDATA[security]]></category>
		<category><![CDATA[servo]]></category>
		<category><![CDATA[support]]></category>
		<category><![CDATA[term]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12988</guid>

					<description><![CDATA[在 Lobsters 上看到 Servo 0.1.0 的消息，以及要弄 LTS 版本的計畫：「Servo is now available on crates.io」。 在 0.x 版上面弄 LTS 好像是第一次看到，目前的計畫可以在「Servo LTS releases」這頁上看到，目前是叫做「best-effort LTS」： Besides our monthly releases, the Servo community provides best-effort long-term support (LTS) releases. 然後每六個月一版，支援九個月，只處理 security 相關的問題： A new LTS release / branch is introduced every 6 months, based on the current regular release at &#8230; <a href="https://blog.gslin.org/archives/2026/04/14/12988/servo-0-1-0-%e8%88%87-lts/" class="more-link">Continue reading<span class="screen-reader-text"> "Servo 0.1.0 與 LTS"</span></a>]]></description>
										<content:encoded><![CDATA[<p>在 <a href="https://lobste.rs/">Lobsters</a> 上看到 <a href="https://en.wikipedia.org/wiki/Servo_(software)">Servo</a> 0.1.0 的消息，以及要弄 <a href="https://en.wikipedia.org/wiki/Long-term_support">LTS</a> 版本的計畫：「<a href="https://servo.org/blog/2026/04/13/servo-0.1.0-release/">Servo is now available on crates.io</a>」。</p>
<p>在 0.x 版上面弄 LTS 好像是第一次看到，目前的計畫可以在「<a href="https://book.servo.org/embedding/lts-release.html">Servo LTS releases</a>」這頁上看到，目前是叫做「best-effort LTS」：</p>
<blockquote><p>Besides our monthly releases, the Servo community provides best-effort long-term support (LTS) releases.</p></blockquote>
<p>然後每六個月一版，支援九個月，只處理 security 相關的問題：</p>
<blockquote><p>A new LTS release / branch is introduced every 6 months, based on the current regular release at the time.</p>
<p>The expected support duration is 9 months, giving embedders time to migrate to the next LTS release.</p>
<p>The LTS release will receive security fixes only.</p></blockquote>
<p>看起來是讓一些想開始測試的開發者可以有比較穩定的環境可以用。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/14/12988/servo-0-1-0-%e8%88%87-lts/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12988</post-id>	</item>
		<item>
		<title>南韓推的「無條件基本頻寬」：400kbps</title>
		<link>https://blog.gslin.org/archives/2026/04/12/12987/%e5%8d%97%e9%9f%93%e6%8e%a8%e7%9a%84%e3%80%8c%e7%84%a1%e6%a2%9d%e4%bb%b6%e5%9f%ba%e6%9c%ac%e9%a0%bb%e5%af%ac%e3%80%8d%ef%bc%9a400kbps/</link>
					<comments>https://blog.gslin.org/archives/2026/04/12/12987/%e5%8d%97%e9%9f%93%e6%8e%a8%e7%9a%84%e3%80%8c%e7%84%a1%e6%a2%9d%e4%bb%b6%e5%9f%ba%e6%9c%ac%e9%a0%bb%e5%af%ac%e3%80%8d%ef%bc%9a400kbps/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Sun, 12 Apr 2026 02:54:35 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Network]]></category>
		<category><![CDATA[Service]]></category>
		<category><![CDATA[Telephone]]></category>
		<category><![CDATA[400kbps]]></category>
		<category><![CDATA[av1]]></category>
		<category><![CDATA[bandwidth]]></category>
		<category><![CDATA[basic]]></category>
		<category><![CDATA[income]]></category>
		<category><![CDATA[korea]]></category>
		<category><![CDATA[mobile]]></category>
		<category><![CDATA[network]]></category>
		<category><![CDATA[south]]></category>
		<category><![CDATA[telecom]]></category>
		<category><![CDATA[unconditional]]></category>
		<category><![CDATA[vp9]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12987</guid>

					<description><![CDATA[看到「South Korea introduces universal basic mobile data access (via)」這篇，南韓在推的「無條件基本頻寬」好像是第一次看到的想法。 無條件基本頻寬的設計跟「無條件基本所得 (Unconditional Basic Income)」有點像，中文版維基百科提到的這段： 《世界人權宣言》第二十五條揭示：「人人有權享受其本人及其家屬康樂所需之生活程度，舉凡衣、食、住、醫藥及必要之社會服務均包括在內；且於失業、患病、殘廢、寡居、衰老或因不可抗力之事故致有他種喪失生活能力之情形時，有權享受保障。」 「無條件基本頻寬」有點是把網路連線 (取得資訊的權利) 也當作基本人權的一環的延伸。目前南韓提出來的方案是，無論是什麼方案用完頻寬後，都應該提供 400kbps 的頻寬：(可以丟到 AI 工具裡面讓他翻譯) 官方的新聞稿：「2만 원대 5G 출시…데이터 소진 시에도 메신저·지도검색 등 가능 (2萬韓元左右的 5G 方案登場……即使數據用完，仍可使用通訊軟體、地圖搜尋等功能)」、「'데이터 소진되어도 연결은 지속' 언제든 기본적인 데이터 이용을 보장하는 요금제 개편 추진 (「即使資料用完也會持續連線」 推動資費方案改革，確保隨時都能基本使用數據服務)」。 20k 韓元大約台幣 $50 左右？400kbps 對非影片類的應用來說還算 OK，這邊提到 IM 與地圖應該是堪用。 如果考慮到影音，會用 &#8230; <a href="https://blog.gslin.org/archives/2026/04/12/12987/%e5%8d%97%e9%9f%93%e6%8e%a8%e7%9a%84%e3%80%8c%e7%84%a1%e6%a2%9d%e4%bb%b6%e5%9f%ba%e6%9c%ac%e9%a0%bb%e5%af%ac%e3%80%8d%ef%bc%9a400kbps/" class="more-link">Continue reading<span class="screen-reader-text"> "南韓推的「無條件基本頻寬」：400kbps"</span></a>]]></description>
										<content:encoded><![CDATA[<p>看到「<a href="https://www.theregister.com/2026/04/10/south_korea_data_access_universal/">South Korea introduces universal basic mobile data access</a> (<a href="https://news.ycombinator.com/item?id=47730407">via</a>)」這篇，南韓在推的「無條件基本頻寬」好像是第一次看到的想法。</p>
<p>無條件基本頻寬的設計跟「<a href="https://zh.wikipedia.org/wiki/%E7%84%A1%E6%A2%9D%E4%BB%B6%E5%9F%BA%E6%9C%AC%E6%94%B6%E5%85%A5">無條件基本所得</a> (<a href="https://en.wikipedia.org/wiki/Universal_basic_income">Unconditional Basic Income</a>)」有點像，中文版維基百科提到的這段：</p>
<blockquote><p>《世界人權宣言》第二十五條揭示：「人人有權享受其本人及其家屬康樂所需之生活程度，舉凡衣、食、住、醫藥及必要之社會服務均包括在內；且於失業、患病、殘廢、寡居、衰老或因不可抗力之事故致有他種喪失生活能力之情形時，有權享受保障。」</p></blockquote>
<p>「無條件基本頻寬」有點是把網路連線 (取得資訊的權利) 也當作基本人權的一環的延伸。目前南韓提出來的方案是，無論是什麼方案用完頻寬後，都應該提供 400kbps 的頻寬：(可以丟到 AI 工具裡面讓他翻譯)</p>
<picture><source type="image/webp" srcset="https://i.gslin.com/s/1775961596-cd0ee365.webp" /><img decoding="async" src="https://i.gslin.com/s/1775961596-cd0ee365.png" alt="" /></picture>
<p>官方的新聞稿：「<a href="https://www.korea.kr/news/policyNewsView.do?newsId=148962377">2만 원대 5G 출시…데이터 소진 시에도 메신저·지도검색 등 가능</a> (2萬韓元左右的 5G 方案登場……即使數據用完，仍可使用通訊軟體、地圖搜尋等功能)」、「<a href="https://www.korea.kr/briefing/pressReleaseView.do?newsId=156753606">'데이터 소진되어도 연결은 지속' 언제든 기본적인 데이터 이용을 보장하는 요금제 개편 추진</a> (「即使資料用完也會持續連線」 推動資費方案改革，確保隨時都能基本使用數據服務)」。</p>
<p>20k 韓元大約台幣 $50 左右？400kbps 對非影片類的應用來說還算 OK，這邊提到 IM 與地圖應該是堪用。</p>
<p>如果考慮到影音，會用 400kbps 方案的主力族群，<a href="https://en.wikipedia.org/wiki/Android_(operating_system)">Android</a> 手機的硬體支援度目前應該還是只能先考慮到 <a href="https://en.wikipedia.org/wiki/VP9">VP9</a> 而非 <a href="https://en.wikipedia.org/wiki/AV1">AV1</a>？對 <a href="https://en.wikipedia.org/wiki/YouTube">YouTube</a> 的應用來說，400kbps 的流量應該有機會用到 360p，在手機上加減算是能看？如果是軟解 AV1 的話 (比較耗電) 有機會上 480p。</p>
<p>400kbps 這個數字在這個時間點算是抓的還不錯？</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/12/12987/%e5%8d%97%e9%9f%93%e6%8e%a8%e7%9a%84%e3%80%8c%e7%84%a1%e6%a2%9d%e4%bb%b6%e5%9f%ba%e6%9c%ac%e9%a0%bb%e5%af%ac%e3%80%8d%ef%bc%9a400kbps/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12987</post-id>	</item>
		<item>
		<title>AWS 上 Lambda 與 EC2 的價差</title>
		<link>https://blog.gslin.org/archives/2026/04/12/12986/aws-%e4%b8%8a-lambda-%e8%88%87-ec2-%e7%9a%84%e5%83%b9%e5%b7%ae/</link>
					<comments>https://blog.gslin.org/archives/2026/04/12/12986/aws-%e4%b8%8a-lambda-%e8%88%87-ec2-%e7%9a%84%e5%83%b9%e5%b7%ae/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Sun, 12 Apr 2026 00:57:33 +0000</pubDate>
				<category><![CDATA[AWS]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Computer]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Network]]></category>
		<category><![CDATA[Service]]></category>
		<category><![CDATA[amazon]]></category>
		<category><![CDATA[aws]]></category>
		<category><![CDATA[cloud]]></category>
		<category><![CDATA[cost]]></category>
		<category><![CDATA[ec2]]></category>
		<category><![CDATA[instance]]></category>
		<category><![CDATA[lambda]]></category>
		<category><![CDATA[pricing]]></category>
		<category><![CDATA[service]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12986</guid>

					<description><![CDATA[我以為我有整理過 AWS Lambda 與 Amazon EC2 的價差... 搜自己的 blog 沒翻到，重新整理一下。 Lambda 的 vCPU 與 RAM 的比例接近 EC2 c 系列的分配，所以比較的時候就拉 c 系列出來看。先是美東 us-east-1 (以及美西 us-west-2，一樣的價錢)： c5a.large (2 vCPU + 4GB RAM) 是 $0.077/hr，Lambda 是 $0.24/hr，ratio 是 3.12；ARM 的 c6g.large 是 $0.068/hr，Lambda 是 0.192/hr，ratio 是 2.82。 再來是東京 ap-northeast-1： c5a.large 是 $0.096/hr，Lambda 是 $0.24/hr，ratio 是 2.5；c6g.large 是 $0.0856/hr，Lambda &#8230; <a href="https://blog.gslin.org/archives/2026/04/12/12986/aws-%e4%b8%8a-lambda-%e8%88%87-ec2-%e7%9a%84%e5%83%b9%e5%b7%ae/" class="more-link">Continue reading<span class="screen-reader-text"> "AWS 上 Lambda 與 EC2 的價差"</span></a>]]></description>
										<content:encoded><![CDATA[<p>我以為我有整理過 <a href="https://aws.amazon.com/lambda/">AWS Lambda</a> 與 <a href="https://aws.amazon.com/ec2/">Amazon EC2</a> 的價差... 搜自己的 blog 沒翻到，重新整理一下。</p>
<p>Lambda 的 vCPU 與 RAM 的比例接近 EC2 <code>c</code> 系列的分配，所以比較的時候就拉 <code>c</code> 系列出來看。先是美東 <code>us-east-1</code> (以及美西 <code>us-west-2</code>，一樣的價錢)：</p>
<p><code>c5a.large</code> (2 vCPU + 4GB RAM) 是 $0.077/hr，Lambda 是 $0.24/hr，ratio 是 3.12；<a href="https://en.wikipedia.org/wiki/ARM_architecture_family">ARM</a> 的 <code>c6g.large</code> 是 $0.068/hr，Lambda 是 0.192/hr，ratio 是 2.82。</p>
<p>再來是東京 <code>ap-northeast-1</code>：</p>
<p><code>c5a.large</code> 是 $0.096/hr，Lambda 是 $0.24/hr，ratio 是 2.5；<code>c6g.large</code> 是 $0.0856/hr，Lambda 是 $0.192/hr，ratio 是 2.24。</p>
<p>再來是新加坡 <code>ap-southeast-1</code>：</p>
<p><code>c5a.large</code> 是 $0.088/hr，Lambda 是 $0.24/hr，ratio 是 2.72；<code>c6g.large</code> 是 $0.0784/hr，Lambda 是 $0.192/hr，ratio 是 2.45。</p>
<p>前面幾區的 Lambda 價錢都一樣，差異都是在 Amazon EC2 上。然後是台北 <code>ap-east-2</code>，這邊因為是新的區域，沒看到 <code>c?a</code> 這些 <a href="https://en.wikipedia.org/wiki/AMD">AMD</a> 的機種，所以用 <a href="https://en.wikipedia.org/wiki/Intel">Intel</a> 的來算：</p>
<p><code>c6i.large</code> 是 $0.0963/hr，Lambda 是 $0.216/hr，ratio 是 2.24；<code>c6g.large</code> 是 $0.077/hr，Lambda 是 $0.1728/hr，ratio 是 2.24。</p>
<p>okay，接下來是結論的部分。</p>
<p>在抓感覺時要用倍數等級的差距來想：美國區會高一些，亞洲區會低一些，再加上 request 本身也要錢 + 啟動本身也有 overhead，更不用說非設備 cost 部分的考慮 (像是 vendor lock-in issue)，可以知道量夠大的時候不划算，搬回 EC2 instance 會省不少，更不用說還有 <code>t</code> 系列的機器可以參考進來用。</p>
<p>看起來適合的場景只有在瞬間與一般時間的量差距很大，而且無法等 EC2 instance 開起來的情況，而且這邊要差到 <code>t</code> 系列的 credit 也不夠補... 也許是搶票架構的售票系統？平常的量低到開兩台 <a href="https://en.wikipedia.org/wiki/High_availability">HA</a> 都有點浪費，但接近活動的時候就需要開一堆機器起來，卻又很難預估要開多少才夠。</p>
<p>另外一種是用量極低 (像是 cron job 每個小時跑個一次的任務)，但又需要 HA 架構。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/12/12986/aws-%e4%b8%8a-lambda-%e8%88%87-ec2-%e7%9a%84%e5%83%b9%e5%b7%ae/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12986</post-id>	</item>
		<item>
		<title>Cloudflare 對 AI 流量的 cache 演算法</title>
		<link>https://blog.gslin.org/archives/2026/04/11/12985/cloudflare-%e5%b0%8d-ai-%e6%b5%81%e9%87%8f%e7%9a%84-cache-%e6%bc%94%e7%ae%97%e6%b3%95/</link>
					<comments>https://blog.gslin.org/archives/2026/04/11/12985/cloudflare-%e5%b0%8d-ai-%e6%b5%81%e9%87%8f%e7%9a%84-cache-%e6%bc%94%e7%ae%97%e6%b3%95/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Sat, 11 Apr 2026 09:09:54 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Network]]></category>
		<category><![CDATA[Programming]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[algorithm]]></category>
		<category><![CDATA[bot]]></category>
		<category><![CDATA[cache]]></category>
		<category><![CDATA[cloudflare]]></category>
		<category><![CDATA[lru]]></category>
		<category><![CDATA[replacement]]></category>
		<category><![CDATA[s3-fifo]]></category>
		<category><![CDATA[seive]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12985</guid>

					<description><![CDATA[前陣子看到 Cloudflare 在講要怎麼改善對 AI bot 的 cache：「Why we're rethinking cache for the AI era」。 一般的 cache 機制會把熱門的項目 cache 住，但 bot 砍站的機制會導致很多冷門的東西塞進 cache，造成熱門的項目能放的空間變少，這個算是已知的問題。 在 Cloudflare 的文章裡面看到了兩個演算法，SEIVE 與 S3-FIFO： For mixed human and AI bot traffic, however, our initial experiments indicate that a different choice of cache replacement algorithm, particularly using SEIVE or S3FIFO, could allow human &#8230; <a href="https://blog.gslin.org/archives/2026/04/11/12985/cloudflare-%e5%b0%8d-ai-%e6%b5%81%e9%87%8f%e7%9a%84-cache-%e6%bc%94%e7%ae%97%e6%b3%95/" class="more-link">Continue reading<span class="screen-reader-text"> "Cloudflare 對 AI 流量的 cache 演算法"</span></a>]]></description>
										<content:encoded><![CDATA[<p>前陣子看到 <a href="https://en.wikipedia.org/wiki/Cloudflare">Cloudflare</a> 在講要怎麼改善對 AI bot 的 cache：「<a href="https://blog.cloudflare.com/rethinking-cache-ai-humans/">Why we're rethinking cache for the AI era</a>」。</p>
<p>一般的 cache 機制會把熱門的項目 cache 住，但 bot 砍站的機制會導致很多冷門的東西塞進 cache，造成熱門的項目能放的空間變少，這個算是已知的問題。</p>
<p>在 Cloudflare 的文章裡面看到了兩個演算法，<a href="https://cachemon.github.io/SIEVE-website/">SEIVE</a> 與 <a href="https://s3fifo.com/">S3-FIFO</a>：</p>
<blockquote><p>For mixed human and AI bot traffic, however, our initial experiments indicate that a different choice of cache replacement algorithm, particularly using SEIVE or S3FIFO, could allow human traffic to achieve the same hit rate with or without AI interference.</p></blockquote>
<p>裡面兩個連結到的網站長的超像，發現幾乎是同一批人發展出來的，SEIVE 是：</p>
<p>Yazhuo Zhang<br />
Juncheng Yang<br />
Yao Yue<br />
Ymir Vigfusson<br />
K. V. Rashmi</p>
<p>而 S3-FIFO 是：</p>
<p>Juncheng Yang<br />
Yazhuo Zhang<br />
Ziyue Qiu<br />
Yao Yue<br />
Rashmi Vinayak</p>
<p>看起來有四個人重複。</p>
<p>後來提出來的 SEIVE 比較新，而且實作上也比 S3-FIFO 更簡單，兩者的效能差不多。</p>
<picture><source type="image/webp" srcset="https://i.gslin.com/s/1775898090-5d2882c9.webp" /><img decoding="async" src="https://i.gslin.com/s/1775898090-5d2882c9.png" alt="" /></picture>
<p>可以看到這兩個演算法相比於老牌的 LRU 都好不少，看起來是 2023 與 2024 年發表的，算是 AI 興起後研究出來的演算法？</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/11/12985/cloudflare-%e5%b0%8d-ai-%e6%b5%81%e9%87%8f%e7%9a%84-cache-%e6%bc%94%e7%ae%97%e6%b3%95/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12985</post-id>	</item>
		<item>
		<title>macOS 上無動畫快速切換 Space 的方式</title>
		<link>https://blog.gslin.org/archives/2026/04/10/12984/macos-%e4%b8%8a%e7%84%a1%e5%8b%95%e7%95%ab%e5%bf%ab%e9%80%9f%e5%88%87%e6%8f%9b-space-%e7%9a%84%e6%96%b9%e5%bc%8f/</link>
					<comments>https://blog.gslin.org/archives/2026/04/10/12984/macos-%e4%b8%8a%e7%84%a1%e5%8b%95%e7%95%ab%e5%bf%ab%e9%80%9f%e5%88%87%e6%8f%9b-space-%e7%9a%84%e6%96%b9%e5%bc%8f/#comments</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Fri, 10 Apr 2026 05:57:38 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[MacOS]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[OS]]></category>
		<category><![CDATA[Software]]></category>
		<category><![CDATA[animation]]></category>
		<category><![CDATA[delay]]></category>
		<category><![CDATA[instant]]></category>
		<category><![CDATA[macos]]></category>
		<category><![CDATA[space]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12984</guid>

					<description><![CDATA[很久前的 macOS 可以透過設定將切換 Space 的動畫給關閉，但後來某個版本後就不行了 (好像是 10.8？)，一直沒有好方法，直到剛剛看到「Native Instant Space Switching on MacOS (via)」這篇。 之前的方法要換掉系統的 window manager，甚至要關掉 SIP 就不是很喜歡，就一直忍受著這個問題，這也是我不是很愛在 macOS 上開發的原因之一。 這次看到的方案是 InstantSpaceSwitcher 這個專案，他不是直接解決觸控板左右翻的時候的動畫，而是用快速鍵的方式設定切換 Space 的方式，測了一下確實有效果，而預設的 shortkey 也還行，學一下肌肉記憶就好，總算是有還可以的 workaround 了。]]></description>
										<content:encoded><![CDATA[<p>很久前的 <a href="https://en.wikipedia.org/wiki/MacOS">macOS</a> 可以透過設定將切換 Space 的動畫給關閉，但後來某個版本後就不行了 (好像是 10.8？)，一直沒有好方法，直到剛剛看到「<a href="https://arhan.sh/blog/native-instant-space-switching-on-macos/">Native Instant Space Switching on MacOS</a> (<a href="https://news.ycombinator.com/item?id=47708818">via</a>)」這篇。</p>
<p>之前的方法要換掉系統的 window manager，甚至要關掉 <a href="https://en.wikipedia.org/wiki/System_Integrity_Protection">SIP</a> 就不是很喜歡，就一直忍受著這個問題，這也是我不是很愛在 macOS 上開發的原因之一。</p>
<p>這次看到的方案是 <a href="https://github.com/jurplel/InstantSpaceSwitcher">InstantSpaceSwitcher</a> 這個專案，他不是直接解決觸控板左右翻的時候的動畫，而是用快速鍵的方式設定切換 Space 的方式，測了一下確實有效果，而預設的 shortkey 也還行，學一下肌肉記憶就好，總算是有還可以的 workaround 了。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/10/12984/macos-%e4%b8%8a%e7%84%a1%e5%8b%95%e7%95%ab%e5%bf%ab%e9%80%9f%e5%88%87%e6%8f%9b-space-%e7%9a%84%e6%96%b9%e5%bc%8f/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12984</post-id>	</item>
		<item>
		<title>量子算法最近的大進展</title>
		<link>https://blog.gslin.org/archives/2026/04/09/12982/%e9%87%8f%e5%ad%90%e7%ae%97%e6%b3%95%e6%9c%80%e8%bf%91%e7%9a%84%e5%a4%a7%e9%80%b2%e5%b1%95/</link>
					<comments>https://blog.gslin.org/archives/2026/04/09/12982/%e9%87%8f%e5%ad%90%e7%ae%97%e6%b3%95%e6%9c%80%e8%bf%91%e7%9a%84%e5%a4%a7%e9%80%b2%e5%b1%95/#respond</comments>
		
		<dc:creator><![CDATA[Gea-Suan Lin]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 06:35:54 +0000</pubDate>
				<category><![CDATA[Computer]]></category>
		<category><![CDATA[Murmuring]]></category>
		<category><![CDATA[Programming]]></category>
		<category><![CDATA[Security]]></category>
		<category><![CDATA[2029]]></category>
		<category><![CDATA[algorithm]]></category>
		<category><![CDATA[cloudflare]]></category>
		<category><![CDATA[crypto]]></category>
		<category><![CDATA[cryptography]]></category>
		<category><![CDATA[ecdlp]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[knowledge]]></category>
		<category><![CDATA[oratmoic]]></category>
		<category><![CDATA[p-256]]></category>
		<category><![CDATA[physical]]></category>
		<category><![CDATA[post]]></category>
		<category><![CDATA[pqc]]></category>
		<category><![CDATA[proof]]></category>
		<category><![CDATA[quantum]]></category>
		<category><![CDATA[qubit]]></category>
		<category><![CDATA[rsa-2048]]></category>
		<category><![CDATA[security]]></category>
		<category><![CDATA[shor]]></category>
		<category><![CDATA[zero]]></category>
		<guid isPermaLink="false">https://blog.gslin.org/?p=12982</guid>

					<description><![CDATA[看到 Cloudflare 決定將 post-quantum security 的計畫提前到 2029 年的消息：「Cloudflare targets 2029 for full post-quantum security」，主要是最近有兩個不同團隊的大進展。 一個是 Google 的進展：「Safeguarding cryptocurrency by disclosing quantum vulnerabilities responsibly」，裡面提到的新算法大幅減少了解 ECDLP-256 所需的 physical qubit 到 500k 個，比起在這之前已知的算法大約減少了 20 倍： Specifically, we have compiled two quantum circuits (a sequence of quantum gates) that implement Shor's algorithm for ECDLP-256: one that uses less than &#8230; <a href="https://blog.gslin.org/archives/2026/04/09/12982/%e9%87%8f%e5%ad%90%e7%ae%97%e6%b3%95%e6%9c%80%e8%bf%91%e7%9a%84%e5%a4%a7%e9%80%b2%e5%b1%95/" class="more-link">Continue reading<span class="screen-reader-text"> "量子算法最近的大進展"</span></a>]]></description>
										<content:encoded><![CDATA[<p>看到 <a href="https://en.wikipedia.org/wiki/Cloudflare">Cloudflare</a> 決定將 post-quantum security 的計畫提前到 2029 年的消息：「<a href="https://blog.cloudflare.com/post-quantum-roadmap/">Cloudflare targets 2029 for full post-quantum security</a>」，主要是最近有兩個不同團隊的大進展。</p>
<p>一個是 <a href="https://en.wikipedia.org/wiki/Google">Google</a> 的進展：「<a href="https://research.google/blog/safeguarding-cryptocurrency-by-disclosing-quantum-vulnerabilities-responsibly/">Safeguarding cryptocurrency by disclosing quantum vulnerabilities responsibly</a>」，裡面提到的新算法大幅減少了解 ECDLP-256 所需的 physical qubit 到 500k 個，比起在這之前已知的算法大約減少了 20 倍：</p>
<blockquote><p>Specifically, we have compiled two quantum circuits (a sequence of quantum gates) that implement Shor's algorithm for ECDLP-256: one that uses less than 1,200 logical qubits and 90 million Toffoli gates and one that uses less than 1,450 logical qubits and 70 million Toffoli gates. We estimate that these circuits can be executed on a superconducting qubit CRQC with fewer than 500,000 physical qubits in a few minutes, given standard assumptions about hardware capabilities that are consistent with some of Google’s flagship quantum processors. This is an approximately 20-fold reduction in the number of physical qubits required to solve ECDLP-256 and a continuation of a long history of gradual optimization in compiling quantum algorithms to fault-tolerant circuits.</p></blockquote>
<p>Google 這邊有個比較特別的是透過 <a href="https://en.wikipedia.org/wiki/Zero-knowledge_proof">zero-knowledge proff</a> 證明自己有這個算法，但不用實際把這個算法提供給外部：</p>
<blockquote><p>Second, we substantiate our resource estimates without sharing the underlying quantum circuits by publishing a state-of-the-art cryptographic construction called a "zero-knowledge proof", which allows third parties to verify our claims without us leaking sensitive attack details.</p></blockquote>
<p>另外一個是 <a href="https://www.oratomic.com/">Oratomic</a> 的「<a href="https://arxiv.org/abs/2603.28627">Shor's algorithm is possible with as few as 10,000 reconfigurable atomic qubits</a>」這篇，直接對目前最常用的 P-256 下手，提到了新的方法大幅降低了 physical qubit 的數量到 26k 個，而 RSA-2048 看起來也是已經在射程範圍內了：</p>
<blockquote><p>Here, by leveraging advances in high-rate quantum error-correcting codes, efficient logical instruction sets, and circuit design, we show that Shor’s algorithm can be executed at cryptographically relevant scales with as few as 10,000 reconfigurable atomic qubits. Increasing the number of physical qubits improves time efficiency by enabling greater parallelism; under plausible assumptions, the runtime for discrete logarithms on the P-256 elliptic curve could be just a few days for a system with 26,000 physical qubits, while the runtime for factoring RSA–2048 integers is one to two orders of magnitude longer.</p></blockquote>
<p>這些算法上的進展算是強迫加密協定加速導入 <a href="https://en.wikipedia.org/wiki/Post-quantum_cryptography">PQC</a> 了。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.gslin.org/archives/2026/04/09/12982/%e9%87%8f%e5%ad%90%e7%ae%97%e6%b3%95%e6%9c%80%e8%bf%91%e7%9a%84%e5%a4%a7%e9%80%b2%e5%b1%95/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">12982</post-id>	</item>
	</channel>
</rss>

<!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/?utm_source=w3tc&utm_medium=footer_comment&utm_campaign=free_plugin

Object Caching 28/35 objects using APC
Page Caching using APC (Page is feed) 
Minified using APC
Database Caching using APC

Served from: blog.gslin.org @ 2026-04-21 17:32:17 by W3 Total Cache
-->