说人话就是,现在机器 A 和机器 B 组网,网段为 100.64.1.x/24 ,现在机器 A 搭建节点,机器 C 的小猫咪配置规则 - IP-CIDR,100.64.1.0/24,🚁 机器 A 。然后现在机器 A curl -v http://100.64.1.12:5666/ 正常返回,机器 C curl -x http://127.0.0.1:7890 http://100.64.1.12:5666/ 返回 502.
小猫咪看日志确实是匹配了规则。
]]>这个问题我尝试过以下方法:
1 ,通过修改/etc/avahi/avahi-daemon.conf 的 allow-interfaces 来强制 avahi 只为 lan 提供服务,但是这会导没有 lan 网络的设备无法访问本机的服务。
2 ,通过 iptables 阻止其他的双网卡主机通过 eth 来访问本机的 avahi 服务,结果 iptables 的方法也不管用,具体情况如下:
root@server:/home/d# iptables -L INPUT -v -n Chain INPUT (policy ACCEPT 2698 packets, 253K bytes) pkts bytes target prot opt in out source destination 20 4975 DROP udp -- * * 192.168.1.4 0.0.0.0/0 udp dpt:5353 20 4894 DROP udp -- * * 10.0.0.3 0.0.0.0/0 udp dpt:5353 root@server:/home/d#
上面的两条规则阻止了 develop 这台机通过 eth 或 lan 来访问本机的 avahi 服务,结果在 develop 这台机上仍然可以看到本机的 smb 服务:
d@develop:~$ avahi-browse -atp | grep -i server +;lan-br;IPv4;SERVER;_device-info._tcp;local +;eth-br;IPv4;SERVER;_device-info._tcp;local +;lan-br;IPv4;SERVER;_smb._tcp;local +;eth-br;IPv4;SERVER;_smb._tcp;local d@develop:~$
我完全想不通 iptables 为啥不管用,除了 iptables 我也想不到有其他方法能实现我想要的效果,希望有经验的 v 友能指导一下。
]]>Authorized users only. All activities may be monitored and reported. Authorized users only. All activities may be monitored and reported. Activate the web console with: systemctl enable --now cockpit.socket Last login: Tue Feb 18 22:59:31 2025 from 192.168.130.102 Welcome to 6.6.0-76.0.0.80.oe2403sp1.x86_64
通过 SSH 登陆,Authorized users only 这个提示打两便,强迫症受不了。
查了下,一个是/etc/issue ,一个是/etc/issue.net,或者是这个/etc/motd
无论如何都不美观,就像一个 web 元素要刷新,非要把整个页面都刷新。在其他系统中也没见过这种搞法。
]]>原来有电信公网 IPV4 ,歌曲库放家里,用 nginx host ,然后端口映射出去。
5 月电信收了公网 IPV4 ,直接销户换了联通,当然是没公网 IPV4 了,于是用另外一条还有公网 IPV4 的家宽做 nps server ,转发也能用,但是家宽 IP 一个月一变,总有那么几天 dns 刷新解析不方便,另外那个公网 IP 也岌岌可危,听说阿里轻量云不限流量,那不是为转发设计的吗,刚好还可以试用,这就干起来了。
正文: 开通轻量云,第一感觉是界面好简单,和 ECS 比起来有点简陋了,第二感觉,系统慢,说是 2C 4G ,觉得比 ECS 反应慢多了,apt update 肉眼可见慢,估计是 hdd ,而且用的是退役老旧机器。
NPS ,NPC 安装都轻车熟路,改下域名的解析到轻量云上,电脑上一点,页面打得开歌放的出,看上去是妥了,又试了 android 手机也没问题;但是发现苹果手机上不行,Ipad 也不行,开始以为是域名解析还没过来,过了一天还是这样,就苹果手机 ipad 不行,电脑无论 mac 和 windows 都行,android 也可以。我用 postman 模拟 mac 的请求,也获得不了文件服务器上的歌,直接返回 ECONNRESET ,nginx 的 log 上看不到苹果手机和 ipad 的请求。
什么都检查到了,决定重新换穿透端口,换域名,还是不行,但是这次看日志,发现苹果手机的第一次请求,有日志记录,但是没通,第二次请求就直接 ECONNRESET 了,log 上没有了。
推测: 阿里云外面有类似 WAF 的过滤,具体什么样的不清楚。 为什么 android 可以,苹果不行,电脑可以,手机不行?电脑的 macos 是最新 26 ,苹果手机没升级。 如果不是 http/https 的请求是不是会好一点?如果是 ecs 是不是好点?
我有一台 ecs 做家里群晖的转发还可以,没配域名,直接用 IP 的,但是这个听歌的页面,都是 https 的,不能降级还必须配个域名然后在 nginx 里配了 ssl 证书。
]]>老方法,但依然管用。原理是跳过 DNS 解析,直接连上高速 IP 。
获取 Hosts: 直接去 https://github.com/521xueweihan/GitHub520
复制最新的 hosts 内容。
修改文件: 把复制的内容粘贴到 hosts 文件末尾并保存。
/etc/hosts
C:\Windows\System32\drivers\etc\hosts
(没权限就先拖到桌面改,再拖回去覆盖)刷新 DNS:
ipconfig /flushdns
sudo killall -HUP mDNSResponder
sudo systemd-resolve --flush-caches
缺点: IP 会失效,变慢了就得重复第一步去更新。
这个方法更省事,一劳永逸。网上这类公益代理服务很多,核心用法都是替换 URL 。
下面这几个是我测试过,目前都还稳定好用的,挑个顺手的就行:
githubproxy.cc
ghproxylist.com
ghfast.top
gh-proxy.com
昨天发现 gdm 竟然没有 xorg 的选项了。
查了一下有说不支持 xorg 了,有说可以重新开启的,我试了一下没法开启。
我显卡是 3060, wayland 重来没折腾成功过,总是有点卡。
]]>安装过程忘了选时区,进入系统后准备改回去。打开设置界面,不小心选错了 Desktop Sharing ,没想到退不出去,直接卡死了
强行关闭后再次进入时区选项,却发现 Time Zone 那一项点进去之后根本没反应,整个设置界面再次定死了,不同的是这次并没有“Settings Is Not Responding”的提示
这是相应系统版本
用 apt 升级完,情况依旧
今天换成 Fedora 42 又试了一遍,一切顺利
时区设置界面能够正确打开
Desktop Sharing 界面不会定死
星期天试用 Gnome 期间,我以为已经是 Dark Mode ,点开右上角才发现还没开 Dark Mode
点开 Dark Mode ,看起来并没有什么变化,除了桌面背景之外
退回桌面再重新按了下 Dark Mode ,才知道原来仅对窗口有效
然而我想要在 Light Mode 时整体明亮,要不然熊猫配色的明暗刺激实在有点大
虽然开着 Dark Mode 就可以使整体配色显得一致,但实在不想用暗黑模式
我的散光比较严重,在暗色背景光亮图标、明亮文字的情况下,时间长了会搞得我眼睛充满残影,很不舒服
我有戴眼镜,只不过残影状况缓解得不多
Gnome 有个地方实在很不方便,右键菜单不提供“新建文件”的选项
哪怕只提供一个“新建 TXT”都好啊
]]>archlinux 仓库里已经是beta-1了,arch 用户现在就可以安装。
如果厌倦了 KDE 与 GNOME ,可以去尝试一下。
COSMIC 使用 rust 从零开始,在 wayland 协议上开发,也许对某些 x11 的老应用不太友好(?)
]]>systemctl --user start obex systemctl --user enable obex
确认 obex 服务正常工作
user@debian:/tmp$ systemctl --user status obex ● obex.service - Bluetooth OBEX service Loaded: loaded (/usr/lib/systemd/user/obex.service; enabled; preset: enabled) Active: active (running) since Sat 2025-09-20 20:35:53 CST; 1h 9min ago Invocation: 279f5e1a454a428dbb07065246269cb2 Main PID: 117672 (obexd) Tasks: 7 (limit: 54969) Memory: 4.8M (peak: 5.7M) CPU: 432ms CGroup: /user.slice/user-1000.slice/user@1000.service/app.slice/obex.service └─117672 /usr/libexec/bluetooth/obexd user@debian:/tmp$
就可以正常使用蓝牙发送文件给手机
假如手机发送文件给 Debian 系统 除了 pair
还需要 trust 手机设备的蓝牙地址 94:45:60:6D:XX:YY
user@debian:/tmp$ bluetoothctl hci0 new_settings: powered bondable ssp br/edr le secure-conn wide-band-speech cis-central cis-peripheral Agent registered [Pixel]> trust 94:45:60:6D:XX:YY
这样 手机就可以发送文件到 debian ,系统接受完成后顶部就会有提示
]]>curl -I cdn.jsdelivr.net
重定向: https://cdn.jsdelivr.net/china/
然后 301 重定向到: https://www.jsdelivr.com
https://fastly.jsdelivr.net 也是重定向到: https://www.jsdelivr.com
封的难道不是: https://www.jsdelivr.com
按理来说:都没用才对啊都是,跳到这里:www.jsdelivr.com
]]>d@develop:~$ cat /sys/fs/cgroup/user.slice/user-$(id -u).slice/cpuset.cpus.effective 0-15 d@develop:~$ d@develop:~$ cat /sys/fs/cgroup/custom.slice/cpuset.cpus.effective 16-19 d@develop:~$
当前用户的 cgroup 的 cpuset 是 0-15 ,自定义的 custom.slice 这个 cgroup 的 cpuset 是 16-19 ,我希望 podman 在 custom.slice 这个 cgroup 中运行,试了下面这种方法不管用:
systemd-run --slice=custom.slice --scope podman start f42
有没有 v 友能指导一下要怎么实现?
]]>公司发了个 win11 笔记本,用不习惯,就用 hyper-v 创建了个 linux 虚拟机,桥接到笔记本,网络正常,合上盖子当个小服务器玩,笔记本防火墙已经关闭,linux 防火墙已关闭,linux 睡眠已关闭,win11 睡眠已关闭。win11 笔记本根据公司要求安装了奇安信。 系统:Debian GNU/Linux 12
我用 mbp 去 ssh 连接,可以正常连接,但是过一段时间(时间长度不固定,一般三四个小时,或者过一个晚上)就无法连接了,然后打开 win 本盖子,win11 系统没睡眠,虚拟机也正常,linux 系统也没睡眠,我手动把 linux 的网络开关重启一下就好了。问了 ai ,没啥帮助,麻烦大佬们给一些排查思路和解决办法。
]]>临时解决办法:编辑 /usr/share/perl5/PVE/LXC/Setup/Debian.pm
内的版本限制部分,将 13 改为更高的值如 14:die "unsupported debian version '$version'\n" if !($version >= 4 && $version <= 14);
后续还得等 pve 官方软件更新彻底解决
]]>接触了太多的发型版本
如果是新人,不想折腾,只想平稳的使用 linux 和接触 linux 的
推荐 2 个发行版本,这 2 个目前也是多年在 linux 排行榜上排名靠前的.国内的用的人其实并不多 Manjaro mint 尤其是不用担心驱动问题,这个是所有 linux 新手的拦路虎
想用 linux 打游戏的,推荐 steamos
开发推荐 ubuntu 和 arch 前者是几乎所有开发环境都预知好了,安装好后开箱即用,后者是每天体验最新的 bug 和功能
没钱买服务的,但又要跑业务的,推荐 debian,即陈旧,又及其稳定,前提是出了任何技术问题,你自己都能解决
至于 centos 和后继者,算了吧,centos 都停止服务多少年了,出个 CVE 漏洞,补丁都没得,后继者还没有统一趋势...
]]>现在有以下几点问题 1 。我想装的是 linux mint 既然是 ubuntu 认证这个系统是不是也可以完美支持所以硬件驱动? 2.上述说的 pdd 找到的这台机器是不是就是 ubuntu 认真设备的同款? 因为听说 linux 不支持太新的机器 这机器也是 2025 年出的 但目前看型号貌似都是一致的。可还是有点担忧。
]]>现在问题是服务器换了机房,然后需要做双网口,两个各接一个内网网段。
netplan 配置后,发现 eno1 是我写的配置,eno2 是一个服务器的自动获取的 ip ,且现场在图形桌面编辑网络配置,和我用 nmtui 或 nmcli 或报 connection-readonly
connection 如下,eno2 使用的是Ifupdown (eno2)
这个 connection ,且没法编辑,是自动获取的 ip 。
可能是什么问题?
root@XXX:~# nmcli c -show NAME UUID TYPE DEVICE Ifupdown (eno2) a7aec7f9-d449-7119-c93d-5dbc43b409f9 ethernet eno2 docker0 edc5bd88-aed2-47da-98fd-40cff04bbf75 bridge docker0 netplan-eno1 e9a93624-2f7f-339f-aef2-6e62c1062c08 ethernet eno1 Ifupdown (eno1) 1c8633f8-7f9d-dc05-cc57-22a3458c15a9 ethernet -- Ifupdown (eno3) 9cf3dc39-1936-3cf7-d6d5-fb7abe33affc ethernet -- Ifupdown (eno4) 43a8efd0-fe2d-8cbf-0a92-1123233b3400 ethernet -- netplan-eno2 b5dc78aa-8d4e-3f6b-adbb-8149b7681a99 ethernet --
netplan 基本如下
network: version: 2 renderer: NetworkManager ethernets: eno1: addresses: - 10.0.55.127/24 gateway4: 10.0.55.254 routes: - to: 10.0.55.0/24 via: 10.0.55.254 metric: 200 # vpn 入口 ip - to: 10.80.5.107/24 via: 10.0.55.254 metric: 200 - to: 0.0.0.0/0 # could be 0.0.0.0/0 optionally via: 10.0.55.254 metric: 20000 eno2: addresses: - 192.168.50.175/24 routes: - to: 192.168.50.0/24 via: 10.0.58.254 metric: 200 gateway4: 192.168.50.254
]]>1 、后端 springboot 前端部署在 tomcat ,请问有什么方法能简便的部署完正式环境后,自动部署到灾备环境吗?
2 、关于永久存储的文件,要怎么保证正式环境和灾备环境能相互实时或延迟低的情况下进行同步?部署配置越简单越好,不是专业运维出身。
]]>好像还有 C86 架构的 CPU ?
谢谢
]]>root@develop:/lib/dracut/modules.d# diff -u 90lvm/module-setup.sh 90lvm/module-setup.sh.bak --- 90lvm/module-setup.sh 2025-08-18 19:38:58.989838506 +0800 +++ 90lvm/module-setup.sh.bak 2025-08-18 19:30:54.839828659 +0800 @@ -49,7 +49,6 @@ # called by dracut install() { inst_multiple lvm grep - inst_multiple kpartx if [[ $hostonly_cmdline == "yes" ]]; then local _lvmconf root@develop:/lib/dracut/modules.d# root@develop:/lib/dracut/modules.d# diff -u 90lvm/lvm_scan.sh 90lvm/lvm_scan.sh.bak --- 90lvm/lvm_scan.sh 2025-08-18 19:39:06.604838587 +0800 +++ 90lvm/lvm_scan.sh.bak 2025-08-18 13:59:44.755601855 +0800 @@ -150,7 +150,6 @@ # if the LV is not lised as complete. # shellcheck disable=SC2086 lvm lvchange --yes -K -ay $activate_args "$LV" 2>&1 | vinfo - kpartx -av "/dev/$LV" fi done fi root@develop:/lib/dracut/modules.d# root@develop:/lib/dracut/modules.d#
然后用以下命令在虚拟机里生成一个用于物理机直接启动用的 initramfs:
dracut -f ~/initramfs-6.14.0-63.fc42.x86_64.guest.img -a "lvm" --add-drivers "nvme"
然后把这个 initramfs 和虚拟机的内核以及虚拟机 /boot/loader/entries/ 目录下的 grub 启动项拷贝到物理机的 boot 分区,然后再给内核命令行上加上一个 "rd.lvm=1 rd.lvm.lv=thin/desktop" 这样的配置就能实现直接从物理机启动虚拟机的系统了,这个内核命令行结合上面对 dracut 的修改可以实现在 initramfs 里把名为 thin 的 thin pool 里的名为 desktop 逻辑卷上的分区激活,然后 dracut 就能通过虚拟机的根文件系统的 UUID 找到根分区了,也就和正常的启动没有区别了,启动后用 lsblk 查看效果如下:
d@fedora-desktop:~$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS nvme1n1 259:0 0 3.6T 0 disk thin-pool_tmeta 252:0 0 3.6G 0 lvm thin-pool-tpool 252:2 0 3.6T 0 lvm thin-desktop 252:3 0 200G 0 lvm thin-desktop1 252:4 0 600M 0 part /boot/efi thin-desktop2 252:5 0 1G 0 part /boot thin-desktop3 252:6 0 198.4G 0 part /home / thin-pool 252:7 0 3.6T 1 lvm thin-pool_tdata 252:1 0 3.6T 0 lvm thin-pool-tpool 252:2 0 3.6T 0 lvm thin-desktop 252:3 0 200G 0 lvm thin-desktop1 252:4 0 600M 0 part /boot/efi thin-desktop2 252:5 0 1G 0 part /boot thin-desktop3 252:6 0 198.4G 0 part /home / thin-pool 252:7 0 3.6T 1 lvm
可以看到根文件系统所在的块设备是/dev/mapper/thin-desktop3 ,这个块设备是/dev/mapper/thin-desktop 这个 lvm thin 逻辑卷的一个分区。
我想在 debian 13 系统上实现一样的效果,但是我对 debian 不熟悉,有没有非常熟悉 debian 或 ubuntu 的老哥们能帮我想一个简单一点的办法搞定这个,真的不想去啃 debian 系的 initramfs 的生成逻辑,感觉那一套和 redhat 系用 dracut 制作 initramfs 的方式比起来实在是太落后了。
]]>请教各位大佬,如何制作 linux live cd ?需要什么工具?
]]>#!/bin/bash # enable_permission.sh - 启用权限要求配置 # ===== 配置区域 ===== CONFIG_DIR="" # 配置文件目录 CONFIG_TRUE="" # 启用权限的配置文件 TARGET_COnFIG="" # 目标配置文件名 CONTAINER_NAME="" # Docker 容器名称 LOG_FILE="/var/log/permission_config.log" # 共享日志文件 # ===== 日志函数 ===== log() { local timestamp=$(date '+%Y-%m-%d %H:%M:%S') local script_name=$(basename "$0") echo "[$timestamp] [$script_name] $1" >> "$LOG_FILE" } # ===== 主函数 ===== main() { log "开始执行" # 1. 验证配置文件存在 if [[ ! -f "$CONFIG_DIR/$CONFIG_TRUE" ]]; then log "错误: 配置文件 $CONFIG_TRUE 不存在!" exit 1 fi # 3. 复制配置文件 cp -f "$CONFIG_DIR/$CONFIG_TRUE" "$CONFIG_DIR/$TARGET_CONFIG" log "复制配置: $CONFIG_TRUE → $TARGET_CONFIG" # 4. 重启容器 if docker restart "$CONTAINER_NAME" > /dev/null; then log "容器重启成功" else log "容器重启失败" exit 2 fi } main
总体来言就是每天白天八点重启一次服务容器,晚上八点重启一次服务容器。 这个定时任务已经执行了一周多了,一直没有问题,但是昨晚十点客户那边发现服务无法访问,我上去看了下连二进制部署的宝塔也无法访问了。猜测是服务器网络崩了。然后今天上午八点 40 左右上班连接时发现服务恢复正常了。 查了下/var/log/message
,个人感觉比较重要的部分如下:
Aug 14 20:00:11 cap dockerd: time="2025-08-14T20:00:11.500905584+08:00" level=info msg="Container failed to exit within 10s of signal 15 - using the force" cOntainer=90828a5018f0fc3eb7019d2f5275b35eb9e79f5306e8aab459e12aaa287ed02a spanID=22a255e634fb0b5f traceID=5222a14c8585e9c7f65d909613b195d0 Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.604295589+08:00" level=info msg="shim disconnected" id=90828a5018f0fc3eb7019d2f5275b35eb9e79f5306e8aab459e12aaa287ed02a Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.604343484+08:00" level=warning msg="cleaning up after shim disconnected" id=90828a5018f0fc3eb7019d2f5275b35eb9e79f5306e8aab459e12aaa287ed02a namespace=moby Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.604354005+08:00" level=info msg="cleaning up dead shim" Aug 14 20:00:11 cap dockerd: time="2025-08-14T20:00:11.604547353+08:00" level=info msg="ignoring event" cOntainer=90828a5018f0fc3eb7019d2f5275b35eb9e79f5306e8aab459e12aaa287ed02a module=libcontainerd namespace=moby topic=/tasks/delete type="*events.TaskDelete" Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.621203827+08:00" level=warning msg="cleanup warnings time=\"2025-08-14T20:00:11+08:00\" level=info msg=\"starting signal loop\" namespace=moby pid=52083 runtime=io.containerd.runc.v2\n" Aug 14 20:00:11 cap dockerd: time="2025-08-14T20:00:11.621741372+08:00" level=warning msg="ShouldRestart failed, container will not be restarted" cOntainer=90828a5018f0fc3eb7019d2f5275b35eb9e79f5306e8aab459e12aaa287ed02a daemOnShuttingDown=false error="restart canceled" execDuration=11h59m59.316246392s exitStatus="{137 2025-08-14 12:00:11.579683933 +0000 UTC}" hasBeenManuallyStopped=true restartCount=0 Aug 14 20:00:11 cap avahi-daemon[1911]: Withdrawing address record for fe80::785f:e6ff:fe53:4e9c on veth4b6903b. Aug 14 20:00:11 cap kernel: docker0: port 2(veth4b6903b) entered disabled state Aug 14 20:00:11 cap kernel: docker0: port 2(veth4b6903b) entered disabled state Aug 14 20:00:11 cap NetworkManager[1877]: <info> [1755172811.6551] manager: (vethdec9609): new Veth device (/org/freedesktop/NetworkManager/Devices/250) Aug 14 20:00:11 cap avahi-daemon[1911]: Withdrawing workstation service for vethdec9609. Aug 14 20:00:11 cap kernel: device veth4b6903b left promiscuous mode Aug 14 20:00:11 cap kernel: docker0: port 2(veth4b6903b) entered disabled state Aug 14 20:00:11 cap avahi-daemon[1911]: Withdrawing workstation service for veth4b6903b. Aug 14 20:00:11 cap NetworkManager[1877]: <info> [1755172811.6667] device (veth4b6903b): released from master device docker0 Aug 14 20:00:11 cap journal: Removing a network device that was not added Aug 14 20:00:11 cap libvirtd: 2025-08-14 12:00:11.670+0000: 2928: error : virFileReadAll:1460 : 打开文件 '/sys/class/net/vethdec9609/operstate' 失败: 没有那个文件或目录 Aug 14 20:00:11 cap libvirtd: 2025-08-14 12:00:11.670+0000: 2928: error : virNetDevGetLinkInfo:2552 : unable to read: /sys/class/net/vethdec9609/operstate: 没有那个文件或目录 Aug 14 20:00:11 cap journal: Removing a network device that was not added Aug 14 20:00:11 cap kernel: docker0: port 2(veth916a435) entered blocking state Aug 14 20:00:11 cap kernel: docker0: port 2(veth916a435) entered disabled state Aug 14 20:00:11 cap kernel: device veth916a435 entered promiscuous mode Aug 14 20:00:11 cap kernel: IPv6: ADDRCONF(NETDEV_UP): veth916a435: link is not ready Aug 14 20:00:11 cap kernel: docker0: port 2(veth916a435) entered blocking state Aug 14 20:00:11 cap kernel: docker0: port 2(veth916a435) entered forwarding state Aug 14 20:00:11 cap NetworkManager[1877]: <info> [1755172811.6883] manager: (vethbcc5924): new Veth device (/org/freedesktop/NetworkManager/Devices/251) Aug 14 20:00:11 cap NetworkManager[1877]: <info> [1755172811.6893] manager: (veth916a435): new Veth device (/org/freedesktop/NetworkManager/Devices/252) Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.728945634+08:00" level=info msg="loading plugin \"io.containerd.event.v1.publisher\"..." runtime=io.containerd.runc.v2 type=io.containerd.event.v1 Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.729084477+08:00" level=info msg="loading plugin \"io.containerd.internal.v1.shutdown\"..." runtime=io.containerd.runc.v2 type=io.containerd.internal.v1 Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.729100825+08:00" level=info msg="loading plugin \"io.containerd.ttrpc.v1.task\"..." runtime=io.containerd.runc.v2 type=io.containerd.ttrpc.v1 Aug 14 20:00:11 cap containerd: time="2025-08-14T20:00:11.729349497+08:00" level=info msg="starting signal loop" namespace=moby path=/run/containerd/io.containerd.runtime.v2.task/moby/90828a5018f0fc3eb7019d2f5275b35eb9e79f5306e8aab459e12aaa287ed02a pid=52143 runtime=io.containerd.runc.v2 Aug 14 20:00:11 cap avahi-daemon[1911]: Withdrawing workstation service for vethbcc5924. Aug 14 20:00:11 cap kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth916a435: link becomes ready Aug 14 20:00:11 cap NetworkManager[1877]: <info> [1755172811.9243] device (veth916a435): carrier: link connected Aug 14 20:00:11 cap journal: Removing a network device that was not added Aug 14 20:00:12 cap systemd: Removed slice User Slice of root. Aug 14 20:00:13 cap avahi-daemon[1911]: Registering new address record for fe80::9894:70ff:fe7c:5e48 on veth916a435.*.
把日志扔给 deepseek 说是 docker 容器强制终止触发宿主机内核网络栈状态异常。请问有这个可能吗?我不是专业运维,请问一下大家, 如果 docker restart 指令确实会影响宿主机网络协议栈,目前我只想到了以下方案: 把 docker restart 指令改为 docker stop + sleep + docker start 确保容器正常停止。然后 docker network prune --filter "unitl=24h"清理一下无用网络。
]]>简要概括:
全新安装的 Server 版本,不再内置以下程序
从旧版升级上来的话,不受影响
]]>升级了 Debian Bookworm -> Trixie
结果路由器的 NAT 出问题了,内网机器无法 ping 通外网
对着 deepseek 搞了整整一个下午,搞 iptables 、各种配置一堆废话,结果没找到真正原因
结果刚才发现在路由器 reboot 的时候,网络能闪通,ping 有几个响应
突然意识到可能是某个服务有问题,一个个排查后马上确定是 miniupnpd 的问题
PS:
Trixie 上 sysctl 由 systemd-sysctl 控制了,默认不会读取/etc/sysctl.conf 文件 把设置分开放入/etc/sysctl.d/目录下。
]]>目前完美运行
]]>apt-listchanges: Reading changelogs... Extracting templates from packages: 100% O Preconfiguring packages ... (Reading database ... 117496 files and directories currently installed.) Preparing to unpack .../base-files_13.8_amd64.deb ... ****************************************************************************** * * The base-files package cannot be installed because * /lib64 is a symbolic link and not pointing at usr/lib64 exactly. * * This is an unexpected situation. Cannot proceed with the upgrade. * * For more information please read https://wiki.debian.org/UsrMerge. * ****************************************************************************** dpkg: error processing archive /var/cache/apt/archives/base-files_13.8_amd64.deb (--unpack): new base-files package pre-installation script subprocess returned error exit status 1 Errors were encountered while processing: /var/cache/apt/archives/base-files_13.8_amd64.deb E: Sub-process /usr/bin/dpkg returned an error code (1)
找了一下相关帖子,有人提示可以把/lib64 软链接删除,这一删任何命令都执行不了:
ls
这大热天的,实在不想把放在弱电箱里的机器拿出来接键盘接电视,于是又研究了一番,可以如此恢复:
cd / /usr/lib64/ld-linux-x86-64.so.2 /usr/bin/ln -s usr/lib64 lib64
再次执行 apt dist-upgrade --autoremove -y 居然莫名其妙又可以升级的,真奇怪,不知道哪里出的问题。
]]>我平常偶尔也能看到自动售卖机或者广告牌故障,但基本上全是 Windows 或者 Android 系统。这种还是第一次见。
如果大家有类似的吊图,可以发来一起乐呵乐呵。
]]>Hardware | manufacturer: Fibocom Wireless Inc. | model: FM350-GL | firmware revision: 81600.0000.00.29.23.16 | supported: gsm-umts, lte | current: gsm-umts, lte -------------------------------- System | device: /sys/devices/pci0000:00/0000:00:08.1/0000:06:00.4/usb4/4-2/4-2.2 | physdev: /sys/devices/pci0000:00/0000:00:08.1/0000:06:00.4/usb4/4-2/4-2.2 | drivers: option, rndis_host | plugin: generic | primary port: ttyUSB5 | ports: eth1 (net), ttyUSB5 (at), ttyUSB7 (at)
再然后就会迷之掉线,又找不到了,连给我输入 AT 命令的机会都不给,最后等一段时间后开始循环这个过程。Esim 还没开始折腾呢,模块都不能正常工作,麻了。
求大佬指点,操作系统 kali linux 6.12.33+kali-amd64 #1 SMP PREEMPT_DYNAMIC Kali 6.12.33-1kali1 (2025-06-25) x86_64 GNU/Linux
]]>qemu-system-x86_64 \ -machine q35,accel=kvm \ -cpu host \ -m 1G \ -kernel /home/d/kernel/kernel \ -initrd /home/d/rd/initramfs.cpio.gz \ -append 'cOnsole=ttyS0 test="11 22"' \ -netdev '{"type":"tap","vhost":true,"ifname":"eth_0","id":"hostnet0","script":"","downscript":""}' \ -device '{"driver":"virtio-net-pci","netdev":"hostnet0","id":"net0","mac":"52:54:00:c0:45:c7"}' \ -nographic
上述命令的参数的格式是有效的,但是如果命令执行后通过 pgrep 查询命令行字符串,查询出的结果会把单引号去掉:
d@develop:~$ pgrep -af qemu-system-x86_64 | perl -0pe 's/ -/ \\\n-/g' 19754 qemu-system-x86_64 \ -machine q35,accel=kvm \ -cpu host \ -m 1G \ -kernel /home/d/kernel/kernel \ -initrd /home/d/rd/initramfs.cpio.gz \ -append cOnsole=ttyS0 test="11 22" \ -netdev {"type":"tap","vhost":true,"ifname":"eth_0","id":"hostnet0","script":"","downscript":""} \ -device {"driver":"virtio-net-pci","netdev":"hostnet0","id":"net0","mac":"52:54:00:c0:45:c7"} \ -nographic
去掉单引号的命令无法直接放到 shell 里去执行,我想找到一个通用的办法(不要仅限于 qemu 的参数)把 pgrpe 输出的命令行字符串中需要用单引号包起来的参数用单引号包起来,使其结果和最初执行的命令行字符串完全一样,问了 ai ,ai 解决不了,再次在这里求助 v 友。
]]>通过以下命令可以确定我修改配置是修改成功的:
root@fedora:~# iscsiadm -m session -P 3 iSCSI Transport Class version 2.0-870 version 6.2.1.10 Target: iqn.2003-01.org.linux-iscsi.develop.x8664:sn.d0d7965bd993 (non-flash) Current Portal: 192.168.1.4:3260,1 Persistent Portal: 192.168.1.4:3260,1 ********** Interface: ********** Iface Name: default Iface Transport: tcp Iface Initiatorname: iqn.1994-05.com.redhat:dcff1f712fda Iface IPaddress: 192.168.1.165 Iface HWaddress: default Iface Netdev: default SID: 1 iSCSI Connection State: LOGGED IN iSCSI Session State: LOGGED_IN Internal iscsid Session State: NO CHANGE ********* Timeouts: ********* Recovery Timeout: 4800 Target Reset Timeout: 1200 LUN Reset Timeout: 1200 Abort Timeout: 600 ***** CHAP: ***** username: <empty> password: ******** username_in: <empty> password_in: ******** ************************ Negotiated iSCSI params: ************************ HeaderDigest: None DataDigest: None MaxRecvDataSegmentLength: 262144 MaxXmitDataSegmentLength: 262144 FirstBurstLength: 65536 MaxBurstLength: 262144 ImmediateData: Yes InitialR2T: Yes MaxOutstandingR2T: 1 ************************ Attached SCSI devices: ************************ Host Number: 7 State: running scsi7 Channel 00 Id 0 Lun: 0 Attached scsi disk sda State: running root@fedora:~# root@fedora:~# root@fedora:~# cat /sys/class/iscsi_connection/connection1\:0/ping_tmo 220 root@fedora:~# root@fedora:~# cat /sys/class/iscsi_connection/connection1\:0/recv_tmo 210 root@fedora:~# root@fedora:~#
问题是就是不生效,跟默认的情况一样超过 5 秒就超时了,测试的方法是:
virsh --connect qemu:///system domif-setlink f42 vnet3 down && sleep 6 && virsh --connect qemu:///system domif-setlink f42 vnet3 up
超时后没有任何的报错,但是虚拟机永久性卡死了(串口卡死,ping 也 ping 不通),如果 sleep 5 秒就不会永久性卡死,sleep 的时候系统卡死,sleep 结束后系统恢复正常。
]]>php 单片机 安卓等等。
]]>然后 sp 几像 7.1 7.2 7.3 这种?
版本不了解,找软件包都不好找,像 centos7 只要找 el7 的 rpm 就行,简单方便。。
]]>