https://t.me/s/moreality🌐 一些本人的碎碎念,汇聚了几个主要的日常分享渠道📝 内容包括但不限于:🏃 日常生活,👨💻 工具分享,📖 书影音,体育赛事(⚽️曼城球迷)💡 所有内容均为在曾经某一时刻的观点。
#mark #tools
一个扇贝用户可以使用的不错的 chrome 插件, 可以实现一键查词 + 添加到生词本
● Link: https://github.com/maicss/chrome-shanbay-v2
via Memos
一个扇贝用户可以使用的不错的 chrome 插件, 可以实现一键查词 + 添加到生词本
● Link: https://github.com/maicss/chrome-shanbay-v2
via Memos
#mark #gpt
● https://lmarena.ai/?leaderboard
LLM Model 排行榜:
via Memos
● https://lmarena.ai/?leaderboard
LLM Model 排行榜:
Chatbot Arena (lmarena.ai) 是由加州大学伯克利分校 SkyLab 和 LMSYS 开发的开源平台,用于通过人类偏好评估 AI。该平台通过超过 100 万次用户投票,使用 Bradley-Terry 模型生成实时排行榜,以评选最佳 LLM 和 AI 聊天机器人。
via Memos
#mark #work #amazon
在亚马逊 (Amazon) 公司工作是怎样一番体验? - GXSC的回答 - 知乎
https://www.zhihu.com/question/24614033/answer/497338972
via Memos
在亚马逊 (Amazon) 公司工作是怎样一番体验? - GXSC的回答 - 知乎
https://www.zhihu.com/question/24614033/answer/497338972
via Memos
#go
这个 go 写的并发素数筛太妙了
● https://golang.org/s/prime-sieve
● help understand: https://www.reddit.com/r/golang/comments/434zry/help_understanding_this_prime_sieve_concurrent/
via Memos
这个 go 写的并发素数筛太妙了
// A concurrent prime sieve
package main
// Send the sequence 2, 3, 4, ... to channel 'ch'.
func Generate(ch chan<- int) {
for i := 2; ; i++ {
ch <- i // Send 'i' to channel 'ch'.
}
}
// Copy the values from channel 'in' to channel 'out',
// removing those divisible by 'prime'.
func Filter(in <-chan int, out chan<- int, prime int) {
for {
i := <-in // Receive value from 'in'.
if i%prime != 0 {
out <- i // Send 'i' to 'out'.
}
}
}
// The prime sieve: Daisy-chain Filter processes.
func main() {
ch := make(chan int) // Create a new channel.
go Generate(ch) // Launch Generate goroutine.
for i := 0; i < 10; i++ {
prime := <-ch
print(prime, "\n")
ch1 := make(chan int)
go Filter(ch, ch1, prime)
ch = ch1
}
}
● https://golang.org/s/prime-sieve
● help understand: https://www.reddit.com/r/golang/comments/434zry/help_understanding_this_prime_sieve_concurrent/
via Memos
#bb #vps #数据安全
update: https://memos.roccoshi.top/m/dZ7i7HVxJUcVupygLE7Y3y
绿云这机器居然不是 raid 炸了, 而是被黑了.. (nodeseek, lowendtalk)
这下事情更麻烦了, 保险起见还得把所有的 private token 都删了, 而且我发现之前为了方便很多脚本都直接把密码和一些 api token 全明文写里面了.
长教训了, 麻了, 以后得做好「每台 vps 的数据都随时可能被人明文查看」的准备了.
● https://lowendtalk.com/discussion/194420/connectivity-issues-greencloud-san-jose#latest
● https://lowendtalk.com/discussion/198766/my-greencloud-vps-got-ransomwared-the-entire-mothership#latest
● https://www.nodeseek.com/post-181031-1
via Memos
update: https://memos.roccoshi.top/m/dZ7i7HVxJUcVupygLE7Y3y
绿云这机器居然不是 raid 炸了, 而是被黑了.. (nodeseek, lowendtalk)
这下事情更麻烦了, 保险起见还得把所有的 private token 都删了, 而且我发现之前为了方便很多脚本都直接把密码和一些 api token 全明文写里面了.
长教训了, 麻了, 以后得做好「每台 vps 的数据都随时可能被人明文查看」的准备了.
● https://lowendtalk.com/discussion/194420/connectivity-issues-greencloud-san-jose#latest
● https://lowendtalk.com/discussion/198766/my-greencloud-vps-got-ransomwared-the-entire-mothership#latest
● https://www.nodeseek.com/post-181031-1
via Memos
#gpt
claude 新模型: claude 3.5 haiku
● https://www.anthropic.com/news/3-5-models-and-computer-use
via Memos
claude 新模型: claude 3.5 haiku
● https://www.anthropic.com/news/3-5-models-and-computer-use
via Memos
#bb
这一年一直在间断性的折腾网盘, vps和笔记软件, 这就导致在恢复绿云机器数据的时候遇到了一个很恐怖的事情.
东西被我散落在各个地方存放, 我都无法判断到底什么是更新的版本, 什么是更老的版本, 我的配置究竟存放在哪里了.
onedrive, googledrive, dropbox, gist, github, 自建的 gist, 自建的 git, 坚果云, mega, seafile, upnote, obsidian, memos, 滴答清单, keep, notion, apple 备忘录, 甚至 tg 收藏夹里都能翻到一些我的记录和备份信息.
典型的「过度折腾」
----------------------
不过好歹兜兜转转, 最后还是把所有站点和数据信息都还原了.
via Memos
这一年一直在间断性的折腾网盘, vps和笔记软件, 这就导致在恢复绿云机器数据的时候遇到了一个很恐怖的事情.
东西被我散落在各个地方存放, 我都无法判断到底什么是更新的版本, 什么是更老的版本, 我的配置究竟存放在哪里了.
onedrive, googledrive, dropbox, gist, github, 自建的 gist, 自建的 git, 坚果云, mega, seafile, upnote, obsidian, memos, 滴答清单, keep, notion, apple 备忘录, 甚至 tg 收藏夹里都能翻到一些我的记录和备份信息.
典型的「过度折腾」
----------------------
不过好歹兜兜转转, 最后还是把所有站点和数据信息都还原了.
via Memos
#mark
逆天绿云, 居然能把整个 raid 搞挂然后一天多都修不好, 我寻思这还是 AMD 比较新的 U, 以及 NVME 的硬盘, 怎么质量也差不到哪去, 没想到还是没有坚挺一年.
感觉大概率要丢数据了, 还好之前写了还算比较完善的备份策略.
就算是这样迁移服务还是搞了整整一天. 最可惜的是我上面很多自己写的同步脚本忘记备份了. (备份了数据, 没备份同步数据的脚本, 淦)
已经信任危机了, 以后再也不买非大厂机器了, 然后所有重要服务能不自建就不自建, 气死了.
via Memos
Updated: there was a RAID controller error on the node, which is an extremely rare event and we're working hard to rebuild it which may take up a few hours or days.
We will inform you soon once it's completed.
We apologize for the inconvenience and thank you for your understanding and patience in this situation.
逆天绿云, 居然能把整个 raid 搞挂然后一天多都修不好, 我寻思这还是 AMD 比较新的 U, 以及 NVME 的硬盘, 怎么质量也差不到哪去, 没想到还是没有坚挺一年.
感觉大概率要丢数据了, 还好之前写了还算比较完善的备份策略.
就算是这样迁移服务还是搞了整整一天. 最可惜的是我上面很多自己写的同步脚本忘记备份了. (备份了数据, 没备份同步数据的脚本, 淦)
已经信任危机了, 以后再也不买非大厂机器了, 然后所有重要服务能不自建就不自建, 气死了.
via Memos