Profile for nyarla
- Display name
- にゃるら / カラクリスタ
- Username
- @[email protected]
- Role
- admin
About nyarla
Fields
- Profile (ja)
- https://the.kalaclista.com/nyarla/
- Blog (ja)
- https://the.kalaclista.com/posts/
- Pronouns
- they/them
- Email (ja/en)
- [email protected]
- OpenPGP
- openpgp4fpr:595E03433825AE5AD82894013993542AC175077E
Bio
「人並みの人生」なんて失かった人。ネットでは「にゃるら」とか「カラクリスタ」と名乗っています、どちらかと言うとPerl界隈の人です
※ なお「NEEDY GIRL OVERDOSE」の企画・シナリオに携われた「にゃるら」さんとは別の人です
フォローにはロックを掛けていますが、相手を見て問題なさそうなら許可しています
ブログ・他のアカウントなど
運用サーバについて
この個人インスタンスでは GoToSocial の 個人的な fork を Fediverse Software として使っています
また ActivityPub の互換性の都合上、一部の実装・サービスとは相互通信が出来ない場合もありますので、その点はご了承ください
※ 今のところ、threads.net と相互通信が出来ないことを確認しています
なおこのアカウントは Amazon アソシエイトに参加しており、適格販売の商品紹介によって収入を得ています。
Stats
- Joined
- Posts
- 3668
- Followed by
- hidden
- Following
- hidden
wine、あるバージョンで動いていたソフトウェアが次のバージョンでは動かない、などが普通にあるので、割と厳しみはある
wine-stating 6.13 の頃に作った wine prefix で AuidoGridder Plugin for Windows が 動くのに、 wine-staging 6.14 以降で作った wine prefix だと何故か動かないと言う事案に遭遇しており、今 wine 6.12 をビルドする破目になっている
自分のブログ、GitHub Workflows でも生成できなくは無いんだろうけど、それをやりだすとコストが大爆発するか時間掛かりすぎワロタになる予感しかないので、完全ローカルでやってます
とは言え自分のブログは Perl で自作した静的サイトジェネレータを使っていて、具体的にはRyzen 9 3950X の 30 Threads ぐらいをしばいて高速にブログを生成しています
個人的にはプログラミング言語への好き嫌いはあっても良いとは思っていて、私も Ruby と Python と PHP は食わず嫌いしてる。
まぁ昔ちょっとだけ齧った事はあったけど全部忘れてるし、出身母体が Perl コミュニティなので、なんとなくのライバル意識みたいなのがある。
とは言え近年では AI 関連は Python が必須、元スタートアップでは Ruby (Rails) 、普通の Web サイト保守では PHP が使われている印象で、Perl はあんまり居場所が無いんだけどね……
プログラミング言語、 複数修得しておくとプログラムでの表現力が上がる印象。あと言語 A だと使える技法だけど別の言語 B だと別の方法を採る必要がある、みたいなケースでは修行になるので、その点でも良い
今回の LRU Cache の実装ではポインタベースの無限リストを作る際に next
や prev
を使うと混乱する、と分かったので、今回は front
と back
と言う表現を使った
つか Go で Zero Allocation がカチっとはまると楽しいので、業務ではなく趣味ならそう言う道を通り続けても良いと思う。ただ実装に時間は掛かるけどね
Go 言語で Zero Allocation をするやつ、最初から Zero Allocation を意識して作らないと allocation をが 1〜3ぐらい残って削れないとか良くあるので、結構難しいところではある。
ただ慣れの部分もあるので、Go でライブラリを作るときは常に Zero Allocation で作るようにはしている。その方が早いし、修行にもなるので
今回作ったものは In-Memory な LRU Cache の Go 実装なんだけど、どこかにバグを作り込んでいる予感しかない……
あと Zero Allocation で作ってるので、たぶん早い(?)はず
ライセンスとか API のドキュメントとか何一切用意していないんだけど、 この辺りはまた後で用意する予定です
ちなみに弊個人インスタンスも以前 1k クラスのフォロワー持つ方から Boost されたら沈みかけました。
まぁこれはインスタンスのスペックをケチってるせいでもあるんだけど、基本分散 SNS ってちょっとしたアクションでも DDoS クラスのアクセスが発生しやすいので、中央集権 SNS の方がネットワーク効率やデータ保存効率が良いのは確か。
とは言え中央集権 SNS はネットワーク効果で抜けづらくなった時に鳥化するととどうしようも無くなるので、まぁメリデメ両方ある感じではある
io の村上さんが『分散 SNS は効率が悪い』と言う発言をインタビューでして一部から顰蹙を買っているようなんだけど、分散 SNS と言う仕組み自体、効率は悪いよ。
と言うか分散 SNS って結局はサーバサイド P2P だから、P2P であるが故の効率の悪さは当然あるし、あとプロトコル自体もデータが無限に増えていく仕組みなので、その点でも効率は悪い。
それとフォロワー規模の大きいアカウントから Boost とか renote されると弱小個人鯖が一発で沈むぐらいのアクセスが発生するし、日常的に DDoS クラスのアクセスが発生しやすい分散 SNS は効率が悪い、と言う事はある程度の技術をかじっていれば分かると思う
鳥、知人の近況を知るためのアカウントを残してあるんだけど、もはやちょっとした論難でも戦争が起き凍結が始まる印象なので、もう何も意見表明する事ができない印象がある
久しぶりにX(鳥)である界隈を見に行ったところ、戦乱が起きたのか論客が片っ端から凍結されており、訳が分からないよ、となって帰って来ました
あーでも今の PC に刺さってる RTX 2060 でも 170W だから、この範囲であれば十分に刺せるか
しかし問題はワイの PC 的に電源足りるか、とか、そもそも刺さるか、と言う問題もあるので、 GPU 選ぶの割と難しいな……。あと当然資金の問題もある
Code Llama はVRAM をどれくらい必要とするか、と言う事を調べていたらこの記事が引っ掛かった。一応の目安としては 16GB あればある程度は安心、と言う印象
Coding 向け LLM を動かすには VRAM を多く積む GPU が必要、しかし RTX 3060 は 12GB しかないし、かと言って RTX 4060 Ti は 16GB の VRAM を積むが世間の評価的にあまりよろしくない、と言う感じで、さて予算いくらでどの GPU を買えば良いのやら……と言う心持ちになっています