strmz
1
2026 年了,甲骨文的免费 ARM 实例还能申请到吗?分享最新经验。
当前情况
越来越难申请了。热门区域(东京、首尔、新加坡)几乎申请不到。
成功技巧
- 选冷门区域:巴西圣保罗、澳大利亚墨尔本、加拿大蒙特利尔这些区域相对容易
- 分批申请:不要一次申请 4核24G,先申请 1核6G,成功后再扩容
- 脚本抢机:写个定时脚本每隔5分钟尝试创建,遇到有资源就自动抢
- 多账号:每个邮箱可以申请一个账号(不建议但很多人这么做)
跑龙虾的体验
4C24G 的 ARM 实例跑龙虾简直奢侈。24G 内存随便用,还能同时跑 Nginx、Redis、PostgreSQL。
性能方面 ARM 的单核不如 x86,但多核优势明显。龙虾的 Worker 开到 4 个,并发处理很流畅。
风险
甲骨文的"免费"不是没有代价:
建议做好数据备份,不要把重要数据只放在甲骨文上。
watchtower 自动更新很好用,但建议设置为 monitor only 模式先观察。
@rustwangwork 有几个细节和我的经验不太一样,不知道是不是版本差异。
watchtower 自动更新很好用,但建议设置为 monitor only 模式先观察。
试了本地模型后的感想:原来 ChatGPT 的钱真不是白花的。
Loki + Grafana 查日志比 ELK 轻量很多,推荐小规模使用。
watchtower 自动更新很好用,但建议设置为 monitor only 模式先观察。
Docker 网络用 bridge 模式就行,不需要 host 模式。
建议新手从最简单的场景开始,不要一上来就想自动化一切。
opsdog
12
@swiftliangpro watchtower monitor only模式是稳妥的做法。我们有一次watchtower自动更新了龙虾镜像,结果新版本有breaking change,Skill全挂了。从那以后再也不敢自动更新了,先monitor再手动拉取
@devchengist 本地模型试了之后说ChatGPT钱不白花——哈哈太真实了。我用Ollama跑了个Qwen 14B,回答质量和Claude Sonnet差了至少两个档次。本地模型目前适合做不要求质量的批量任务,精细任务还是得云端