如何在Kubernetes里使用本地存储
1 准备工作 1.1 创建虚拟化磁盘 别批量复制执行,这里要一步一步操作 123456dd if=/dev/zero of=local_data.img bs=1M count=4096du -h local_data.imgmkfs.ext4 local_data.imgmkdir /data/local_datamount -o loop -t ext4 local_data.img /data/local_data/df -h 2 静态供应器 2.1 查看刚才创建的虚拟磁盘 12lsblk |grep local_dataloop4 7:4 0 4G 0 loop /data/local_data 2.2 配置静态供应器的发现目录 12mkdir /mnt/disksln -s /dev/loop4 /mnt/disks 2.3 部署静态供应器 12345678910111213141516171819202122232425262728293031323334353637383940414243...
Glusterfs入门
1 介绍 1.1 GlusterFS 数据访问流程 1.客户端通过 glusterfs 的 mount point 来读写数据。 2.用户的这个操作被递交给本地 linux 系统的 VFS 来处理。 3.VFS 将数据递交给 FUSE 内核文件系统,在启动 glusterfs 客户端以前,需要向系统注册一个实际的文件系统 FUSE,如图所示,该文件系统与 XFS 在同一个层次上面,XFS 是对实际的磁片进行处理,而 fuse 文件系统则是将数据通过/dev/fuse 这个设备文件递交给了 glusterfs client 端。所以,我们可以将 fuse 文件系统理解为一个代理。 4.数据被 fuse 递交给 Glusterfs client 后,client 对数据进行根据配置文件进行的一系列处理 5.在 glusterfsclient 的处理末端,通过网路将数据递交给 Glusterfs Server,并且将数据写入到服务器所控制的存储设备上 2 安装 2.1 配置 yum 源并安装 12345678cat /etc/yum.repos.d/glusterfs.r...
Glusterfs入门
1 介绍 1.1 GlusterFS 数据访问流程 1.客户端通过 glusterfs 的 mount point 来读写数据。 2.用户的这个操作被递交给本地 linux 系统的 VFS 来处理。 3.VFS 将数据递交给 FUSE 内核文件系统,在启动 glusterfs 客户端以前,需要向系统注册一个实际的文件系统 FUSE,如图所示,该文件系统与 XFS 在同一个层次上面,XFS 是对实际的磁片进行处理,而 fuse 文件系统则是将数据通过/dev/fuse 这个设备文件递交给了 glusterfs client 端。所以,我们可以将 fuse 文件系统理解为一个代理。 4.数据被 fuse 递交给 Glusterfs client 后,client 对数据进行根据配置文件进行的一系列处理 5.在 glusterfsclient 的处理末端,通过网路将数据递交给 Glusterfs Server,并且将数据写入到服务器所控制的存储设备上 2 安装 2.1 配置 yum 源并安装 12345678cat /etc/yum.repos.d/glusterfs.r...
如何在Kubernetes里使用Glusterfs存储
部署 Glusterfs 参考: glusterfs Kubernetes 通过 StorageClass 访问 heketi,heketi 负责管理 Glusterfs 集群 1 heketi 1.1 安装 1.1.1 配置 yum 源并安装 1234567cat /etc/yum.repos.d/glusterfs.repo[glusterfs]name=glusterfsbaseurl=https://buildlogs.centos.org/centos/7/storage/x86_64/gluster-9/enabled=1gpgcheck=0yum install -y heketi heketi-client 1.1.2 配置文件 这个一般只需要修改用户名与 key 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354cat /etc/heketi/heketi.json{ "_por...
如何在Kubernetes里使用cephfs作为存储
1 创建一个 ceph pool 创建存储池 1.1 ceph 集群请看这里:RookCeph安装 123ceph osd pool create cephfs_data 128ceph osd pool set-quota cephfs_data max_bytes $((20 * 1024 * 1024 * 1024)) #20G的存储池cephfs pool init cephfs_data 1.2 查看集群状态 123456789101112131415161718ceph -s cluster: id: xxxxxxxxx-xxxx-11ec-bfb9-67a0f564e0d6 health: HEALTH_OK services: mon: 3 daemons, quorum ceph01,ceph02,ceph03 (age 7d) mgr: ceph01.pjvndt(active, since 7d), standbys: ceph02.injlkl, ceph03.sulrio mds: 1/1 daemons ...
如何在Kubernetes里使用cephrdb作为存储
1 准备工作 部署集群参考: RookCeph安装 1.1 创建一个 ceph pool 创建存储池 123ceph osd pool create rbd 128ceph osd pool set-quota rbd max_bytes $((20 * 1024 * 1024 * 1024)) #20G的存储池rbd pool init rbd 1.1.1 查看集群状态 csi-config-map.yaml 会用到 123456789101112131415161718ceph -s cluster: id: xxxxxxx-67a0f564e0d6 health: HEALTH_OK services: mon: 3 daemons, quorum ceph01,ceph02,ceph03 (age 7d) mgr: ceph01.pjvndt(active, since 7d), standbys: ceph02.injlkl, ceph03.sulrio mds: 1/1 daemons up, 2 standby ...
个人开发环境搭建记录
1 sqlite3 系统自带的版本太低需要升级 1.1 编译 12345wget https://sqlite.org/2022/sqlite-autoconf-3380000.tar.gztar -zxvf sqlite-autoconf-3380000.tar.gzcd sqlite-autoconf-3380000./configure --prefix=/usr/localmake && make install 1.2 替换 1234567mv /usr/bin/sqlite3 /usr/bin/sqlite3_oldln -s /usr/local/bin/sqlite3 /usr/bin/sqlite3echo "/usr/local/lib" > /etc/ld.so.conf.d/sqlite3.confldconfigsqlite3 -version3.38.0 2022-02-22 18:58:40 40fa792d359f84c3b9e9d6623743e1a59826274e221df1bde8f47086...
Linux 系统调优
一、优化文件打开数 为了防止失控的进程破坏系统的性能,Unix和Linux会跟踪进程使用的大部分资源,会对用户及系统管理员进行资源限制,例如控制某个用户打开文件最大数、对某个用户打开进程数进行限制等,一般限制手段包括:软限制和硬限制,一般这两者的值都是设置相等的。 12345678910# 每个用户打开文件的数量,"*"表示所有用户。如果改成root就表示对root用户的限制。cat /etc/security/limits.conf......... 末尾添加* soft noproc 65535* hard noproc 65535* soft nofile 65535* hard nofile 65535# 整个系统打开文件对数量cat /proc/sys/fs/file-max2621440 二、内核参数优化 Linux /proc/sys目录下存放着多数内核的参数,并且可以在系统运行时进行更改,一般重新启动机器就会失效, /proc/sys下内核文件与配置文件/etc/sysctl.conf中变量存在着对应关...
使用MinIO当blog图床
自从写博客后发现 markdown 图片处理困难,存到本地每次存个文档都得建个目录,云厂商的对象存储收费,后来研究了下 MinIO,感觉当图床不错 1 部署 minio wget http://dl.minio.org.cn/server/minio/release/linux-amd64/minio chmod +x minio mv minio /usr/bin 1.1 编写启动脚本 cat /opt/minio/start.sh 1234#!/bin/shexport MINIO_ACCESS_KEY=用户名export MINIO_SECRET_KEY=密码nohup /usr/bin/minio server /mnt/data --address "域名:9000" --console-address ":9001" > /opt/minio/minio.log 2>&1 & 1.2 添加证书,名字不能改 tree /root/.minio 12345/root/.minio`-- cer...
MySQL 5.6 主从部署
主从同步分析参考: MySQL 主从同步分析 | 云原生基站 因为我们环境 MySQL 是 5.6 的,主从同步还是会有延迟的,5.7 会解决这问题 1 环境规划 ip 端口 名称 10.1.1.1 5.6.51 3306 Master /var/lib/mysql/binlog/ 10.1.1.2 5.6.51 3306 Slave1 /var/lib/mysql/binlog/ 10.1.1.3 5.6.51 3306 Slave2 /var/lib/mysql/binlog/ 2 搭建 mysql 125.6yum源:rpm -Uvh http://dev.mysql.com/get/mysql-community-release-el7-5.noarch.rpm5.7yum源:rpm -Uvh http://dev.mysql.com/get/mysql57-community-release-el7-10.noarch.rpm 这里注意下,mysql 版本 5.6: I/O thread 同步并发线程是以库级别并行的,也就是说两...












