各位游戏大佬大家好,今天小编为大家分享关于免root的gg修改器安装_免root gg修改器下载的内容,轻松修改游戏数据,赶快来一起来看看吧。
————————————————-官图镇贴——————————————————-
接下来我会给大家带来Tidb的安装部署的整体步骤,文档当前环境是只使用了一台虚拟机进行的混合部署,但是大家放心正常的组件都是包括了的(麻雀虽小五脏俱全)
虚拟机的配置(PD*1,tidb*1,tikv*3,tiflash*1,grafana*1,prometheus*1,alertmanager*1)
内存8G 运行后free还有1个G
磁盘50G 运行后还剩29G
大家酌情配置即可
[tidb@localhost ~]$
[root@localhost ~]
[root@localhost ~]# useradd tidb
[root@localhost ~]# su – tidb
https:///zh/munity/
请勾选 “同意 PingCAP 社区软件许可协议与隐私政策”
点击立即下载,下载的是最新版本的tidb本文档是5.4.0
如果需要下载其他版本 ,以下为样例,请自行修改所需要的版本号
[tidb@localhost ~]$ wget https://download.pingcap.org/munity-server-v5.3.0-linux-amd64.tar.gz
[tidb@localhost ~]$ wget https://download.pingcap.org/munity-server-v5.2.0-linux-amd64.tar.gz
[tidb@localhost ~]$ ls
munity-server-v5.4.0-linux-amd64.tar.gz
[tidb@localhost ~]$ tar zxf munity-server-v5.4.0-linux-amd64.tar.gz
[tidb@localhost ~]$ ls
munity-server-v5.4.0-linux-amd64 munity-server-v5.4.0-linux-amd64.tar.gz
[tidb@localhost ~]$ rm -rf munity-server-v5.4.0-linux-amd64.tar.gz 为了省地方删除下载的压缩包
[tidb@localhost ~]$ cd munity-server-v5.4.0-linux-amd64/
由于是离线本地安装所以这里要执行安装包中自带的local_install.sh
[tidb@localhost munity-server-v5.4.0-linux-amd64]$ ./local_install.sh
Disable telemetry success
Successfully set mirror to /home/tidb/munity-server-v5.4.0-linux-amd64
Detected shell: bash
Shell profile: /home/tidb/.bash_profile
/home/tidb/.bash_profile has been modified to to add tiup to PATH
open a new terminal or source /home/tidb/.bash_profile to use it
Installed path: /home/tidb/.tiup/bin/tiup
===============================================
1. source /home/tidb/.bash_profile
2. Have a try: tiup playground
这里有几个值得注意的地方
[tidb@localhost munity-server-v5.4.0-linux-amd64]$ cat /home/tidb/.bash_profile ##local_install.sh 为我们声明了tidb的相关bin文件的位置
# .bash_profile
# Get the aliases and functions
if [ -f ~/.bashrc ]; then
. ~/.bashrc
fi
# User specific environment and startup programs
PATH=$PATH:$HOME/.local/bin:$HOME/bin
export PATH
export PATH=/home/tidb/.tiup/bin:$PATH
export PATH=/home/tidb/.tiup/bin:$PATH
若需将镜像切换到其他目录,可以通过手动执行 tiup mirror set <mirror-dir> 进行切换。如果需要切换到在线环境,可以执行 tiup mirror set https://tiup-mirrors.
[tidb@localhost .tiup]$ pwd
/home/tidb/.tiup
[tidb@localhost .tiup]$ tiup cluster template > topology.yaml ##默认模板
[tidb@localhost .tiup]$ tiup cluster template –full > topology.yaml ## 单台机器部署多个实例
[tidb@localhost .tiup]$ tiup cluster template –multi-dc > topology.yaml ## 跨机房部署 TiDB 集群
我这里是单机部署的先放一个我的配置文件,配置项是很灵活的如果是多台部署可以按需修改即可,保证相同服务的端口和安装位置不要冲突
[tidb@localhost .tiup]$ cat topology2.yaml
global:
user: "tidb"
ssh_port: 22
deploy_dir: "/tidb-deploy"
data_dir: "/tidb-data"
arch: "amd64"
server_configs:
pd:
replication.location-labels: ["zone","dc","rack"]
monitored:
node_exporter_port: 9100
blackbox_exporter_port: 9115
pd_servers:
- host: 192.168.135.148
ssh_port: 22
client_port: 2379
peer_port: 2380
deploy_dir: "/tidb-deploy/pd-2379"
data_dir: "/tidb-data/pd-2379"
log_dir: "/tidb-deploy/pd-2379/log"
tidb_servers:
- host: 192.168.135.148
port: 4000
status_port: 10080
deploy_dir: "/tidb-deploy/tidb-4000"
log_dir: "/tidb-deploy/tidb-4000/log"
tikv_servers:
- host: 192.168.135.148
port: 20160
status_port: 20180
deploy_dir: "/tidb-deploy/tikv-20160"
data_dir: "/tidb-data/tikv-20160"
log_dir: "/tidb-deploy/tikv-20160/log"
config:
server.labels:
zone: bj
dc: bja
rack: rack1
- host: 192.168.135.148
port: 20161
status_port: 20181
deploy_dir: "/tidb-deploy/tikv-20161"
data_dir: "/tidb-data/tikv-20161"
log_dir: "/tidb-deploy/tikv-20161/log"
config:
server.labels:
zone: bj
dc: bja
rack: rack2
- host: 192.168.135.148
port: 20162
status_port: 20182
deploy_dir: "/tidb-deploy/tikv-20162"
data_dir: "/tidb-data/tikv-20162"
log_dir: "/tidb-deploy/tikv-20162/log"
config:
server.labels:
zone: bj
dc: bja
rack: rack3
tiflash_servers:
- host: 192.168.135.148
tcp_port: 9000
http_port: 8123
flash_service_port: 3930
flash_proxy_port: 20170
flash_proxy_status_port: 20292
metrics_port: 8234
deploy_dir: "/tidb-deploy/tiflash-9000"
data_dir: "/tidb-data/tiflash-9000"
log_dir: "/tidb-deploy/tiflash-9000/log"
monitoring_servers:
- host: 192.168.135.148
grafana_servers:
- host: 192.168.135.148
alertmanager_servers:
- host: 192.168.135.148
到这里可以短暂休息一下
详细检查项请参阅Tidb的官方建议https://docs./zh/tidb/stable/check-before-deployment
本次安装并没有全部按照官方的建议进行设置
[root@localhost ~]# echo “vm.swappiness = 0”>> /etc/sysctl.conf
[root@localhost ~]# swapoff -a
内核参数vm.swappiness控制换出运行时内存的相对权重,参数值大小对如何使用swap分区有很大联系。值越大,表示越积极使用swap分区,越小表示越积极使用物理内存。默认值swappiness=60,表示内存使用率超过100-60=40%时开始使用交换分区。swappiness=0的时候表示最大限度使用物理内存,然后才是 swap空间;swappiness=100的时候表示积极使用swap分区,并把内存上的数据及时搬运到swap空间。
[root@localhost ~]# vi /etc/sysconfig/selinux
SELINUX=disabled
[root@localhost ~]# setenforce 0 ##上述配置配置文件修改之后需要重启OS ,这样做可以临时先关闭selinux
selinux是 linux系统自带的一个安全模块,如果不想关闭就需要就具体的资源进行设置,所以为了省事儿还是关了吧
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# systemctl disable firewalld.service
因为在 TiDB 集群中,需要将节点间的访问端口打通才可以保证读写请求、数据心跳等信息的正常的传输。在普遍线上场景中,数据库到业务服务和数据库节点的网络联通都是在安全域内完成数据交互。如果没有特殊安全的要求,建议将目标节点的防火墙进行关闭。
[root@localhost ~]# visudo
tidb ALL=(ALL) NOPASSWD: ALL
tidb用户需要创建文件启动服务等操作这了配置sudo后为其提供了权限
[root@localhost yum.repos.d]# echo “fs.file-max = 1000000”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “net.core.somaxconn = 32768”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “net.ipv4.tcp_tw_recycle = 0”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “net.ipv4.tcp_syncookies = 0”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “vm.mit_memory = 1”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# sysctl -p
fs.file-max 表示系统级别的能够打开的文件句柄的数量。
net.core.somaxconn socket监听(listen)的backlog上限
net.ipv4.tcp_tw_recycle 表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭。
net.ipv4.tcp_syncookies 在服务器资源(并非单指端口资源,拒绝服务有很多种资源不足的情况)不足的情况下,尽量不要拒绝TCP的syn(连接)请求,尽量把syn请求缓存起来,留着过会儿有能力的时候处理这些TCP的连接请求”。
vm.mit_memory
0:表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。
1:表示内核允许分配所有的物理内存,而不管当前的内存状态如何。
2: 表示内核允许分配超过所有物理内存和交换空间总和的内存。
对tidb用户使用资源进行设置
cat << EOF >>/etc/security/limits.conf
tidb soft nofile 1000000
tidb hard nofile 1000000
tidb soft stack 32768
tidb hard stack 32768
EOF
soft 指的是当前系统生效的设置值(警告)
hard 表明系统中所能设定的最大值(错误)
nofile – 打开的文件描述符的最大数目
stack – 最大堆栈大小(KB)
由于第一步我们已经创建的tidb用户这一步只需要设置密码与配置互信
本文档是单节点混合安装,如果是多节点部署需要保证当前节点对所有节点都可以免密登录
[root@localhost ~]# passwd tidb
[root@localhost ~]# su – tidb
[tidb@localhost .tiup]$ ssh-keygen ##一路回车即可生成密钥对注意是在tidb用户下执行
[tidb@localhost .tiup]$ ls /home/tidb/.ssh/* ##以下就是生成的公钥和私钥
/home/tidb/.ssh/id_rsa /home/tidb/.ssh/id_rsa.pub
[tidb@localhost .tiup]$ ssh-copy-id -i ~/.ssh/id_rsa.pub 192.168.135.148 ##建立对192.168.135.148 主机的免密登录 这里需要免密登录哪台机器就填写哪台机器的ip地址即可
[root@localhost yum.repos.d]# yum -y install numactl
NUMA 绑核工具的使用,主要为了防止 CPU 资源的争抢,引发性能衰退。
关闭透明大页(即 Transparent Huge Pages,缩写为 THP)。数据库的内存访问模式往往是稀疏的而非连续的。当高阶内存碎片化比较严重时,分配 THP 页面会出现较高的延迟。
将存储介质的 I/O 调度器设置为 noop。对于高速 SSD 存储介质,内核的 I/O 调度操作会导致性能损失。将调度器设置为 noop 后,内核不做任何操作,直接将 I/O 请求下发给硬件,以获取更好的性能。同时,noop 调度器也有较好的普适性。
[root@localhost /]# echo never > /sys/kernel/mm/transparent_hugepage/defrag
[root@localhost ~]# echo never > /sys/kernel/mm/transparent_hugepage/enabled
[root@localhost ~]# echo noop > /sys/block/sda/queue/scheduler ##sda是tidb所使用的磁盘
……终于马上就要结束了
感谢为我们的美好生活奋斗过的革命先烈们!!!
安装前预检查
[tidb@localhost .tiup]$ pwd
/home/tidb/.tiup
[tidb@localhost .tiup]$ tiup cluster check ./topology.yaml –user tidb
检查结果不一定都是PASS可以根据具体提示进行修改或者忽略
[tidb@localhost .tiup]$ tiup cluster deploy tidb-jiantest v5.4.0 ./topology.yaml --user tidb
[tidb@localhost ~]$ tiup cluster display tidb-jiantest
tiup is checking updates ponent cluster ...
ponent `cluster`: /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster display tidb-jiantest
Cluster type: tidb
Cluster name: tidb-jiantest
Cluster version: v5.4.0
Deploy user: tidb
SSH type: builtin
ID Role Host Ports OS/Arch Status Data Dir Deploy Dir
-- ---- ---- ----- ------- ------ -------- ----------
192.168.135.148:9093 alertmanager 192.168.135.148 9093/9094 linux/x86_64 Down /tidb-data/alertmanager-9093 /tidb-deploy/alertmanager-9093
192.168.135.148:3000 grafana 192.168.135.148 3000 linux/x86_64 Down - /tidb-deploy/grafana-3000
192.168.135.148:2379 pd 192.168.135.148 2379/2380 linux/x86_64 Down /tidb-data/pd-2379 /tidb-deploy/pd-2379
192.168.135.148:9090 prometheus 192.168.135.148 9090/12020 linux/x86_64 Down /tidb-data/prometheus-9090 /tidb-deploy/prometheus-9090
192.168.135.148:4000 tidb 192.168.135.148 4000/10080 linux/x86_64 Down - /tidb-deploy/tidb-4000
192.168.135.148:9000 tiflash 192.168.135.148 9000/8123/3930/20170/20292/8234 linux/x86_64 N/A /tidb-data/tiflash-9000 /tidb-deploy/tiflash-9000
192.168.135.148:20160 tikv 192.168.135.148 20160/20180 linux/x86_64 N/A /tidb-data/tikv-20160 /tidb-deploy/tikv-20160
192.168.135.148:20161 tikv 192.168.135.148 20161/20181 linux/x86_64 N/A /tidb-data/tikv-20161 /tidb-deploy/tikv-20161
192.168.135.148:20162 tikv 192.168.135.148 20162/20182 linux/x86_64 N/A /tidb-data/tikv-20162 /tidb-deploy/tikv-20162
Total nodes: 9
[tidb@localhost ~]$tiup cluster start tidb-jiantest –init ##第一次启动之后可以直接通过tiup cluster start/stop tidb-jiantest 来启停
The root password of TiDB database has been changed.
The new password is: ’6*G983^Z2Swxrj7g_!’.
最后会提示tidb的root密码注意记录哦!!!
查看集群状态
[tidb@localhost ~]$ tiup cluster display tidb-jiantest
tiup is checking updates ponent cluster ...
ponent `cluster`: /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster display tidb-jiantest
Cluster type: tidb
Cluster name: tidb-jiantest
Cluster version: v5.4.0
Deploy user: tidb
SSH type: builtin
Dashboard URL: http://192.168.135.148:2379/dashboard
ID Role Host Ports OS/Arch Status Data Dir Deploy Dir
-- ---- ---- ----- ------- ------ -------- ----------
192.168.135.148:9093 alertmanager 192.168.135.148 9093/9094 linux/x86_64 Up /tidb-data/alertmanager-9093 /tidb-deploy/alertmanager-9093
192.168.135.148:3000 grafana 192.168.135.148 3000 linux/x86_64 Up - /tidb-deploy/grafana-3000
192.168.135.148:2379 pd 192.168.135.148 2379/2380 linux/x86_64 Up|L|UI /tidb-data/pd-2379 /tidb-deploy/pd-2379
192.168.135.148:9090 prometheus 192.168.135.148 9090/12020 linux/x86_64 Up /tidb-data/prometheus-9090 /tidb-deploy/prometheus-9090
192.168.135.148:4000 tidb 192.168.135.148 4000/10080 linux/x86_64 Up - /tidb-deploy/tidb-4000
192.168.135.148:9000 tiflash 192.168.135.148 9000/8123/3930/20170/20292/8234 linux/x86_64 Up /tidb-data/tiflash-9000 /tidb-deploy/tiflash-9000
192.168.135.148:20160 tikv 192.168.135.148 20160/20180 linux/x86_64 Up /tidb-data/tikv-20160 /tidb-deploy/tikv-20160
192.168.135.148:20161 tikv 192.168.135.148 20161/20181 linux/x86_64 Up /tidb-data/tikv-20161 /tidb-deploy/tikv-20161
192.168.135.148:20162 tikv 192.168.135.148 20162/20182 linux/x86_64 Up /tidb-data/tikv-20162 /tidb-deploy/tikv-20162
Total nodes: 9
tidb的登录地址信息打印在tiup cluster display的信息中“192.168.135.148:4000 tidb 192.168.135.148 4000/10080 ”
[tidb@localhost ~]$ mysql -uroot -h192.168.135.148 -P4000 -p6*G983^Z2Swxrj7g_! ##可能需要提前安装一个mysql的客户端 本文档采用 yum install mariadb 这个mariadb就是mysql的开源版本感兴趣的小伙伴可以去百度一下
e to the MariaDB monitor. Commands end with ; or g.
Your MySQL connection id is 79
Server version: 5.7.25-TiDB-v5.4.0 TiDB Server (Apache License 2.0) Community Edition, MySQL 5.patible
Copyright (c) 2000, 2018, Oracle, MariaDB Corporation Ab and others.
Type ’help;’ or ’h’ for help. Type ’c’ to clear the current input statement.
MySQL [(none)]> show databases;
+--------------------+
| Database |
+--------------------+
| INFORMATION_SCHEMA |
| METRICS_SCHEMA |
| PERFORMANCE_SCHEMA |
| mysql |
| test |
+--------------------+
5 rows in set (0.00 sec)
MySQL [(none)]> create database jian;
Query OK, 0 rows affected (0.10 sec)
MySQL [(none)]> create table jian(id int);
ERROR 1046 (3D000): No database selected
MySQL [(none)]> create table jian.jiantb(id int);
Query OK, 0 rows affected (0.10 sec)
MySQL [(none)]> insert into jian.jiantb values(1);
Query OK, 1 row affected (0.02 sec)
MySQL [(none)]> use jian
Database changed
MySQL [jian]> select * from jiantb;
+------+
| id |
+------+
| 1 |
+------+
1 row in set (0.00 sec)
地址会打印在tiup cluster display的信息中
Dashboard URL: http://192.168.135.148:2379/dashboard 默认 用户名 root 密码6*G983^Z2Swxrj7g_! 密码是初始化集群之后提示的密码
详细监控指标可以登录Grafana进行查看
http://192.168.135.148:3000/ ##登陆地址也可以在tiup cluster display的信息中找到 默认用户名密码 admin admin
到此打完收工,对以上内容有任何问题或者建议意见的小伙伴,欢迎留言。
以上就是关于免root的gg修改器安装_免root gg修改器下载的全部内容,游戏大佬们学会了吗?
gg修改器root打不开,解决GG修改器root打不开的神器XXX软件 分类:免root版 2,795人在玩 如果你是一名游戏玩家,那么你肯定会知道GG修改器的作用。它可以为你提供无限金币、钻石和各种辅助功能,让你在游戏世界中可以轻松取得胜利。但是,在使用GG修改器时,有些用户可能……
下载gg修改器免root版球球_gg修改器最新版免root下载 分类:免root版 5,772人在玩 各位游戏大佬大家好,今天小编为大家分享关于gg修改器免root版球球_gg修改器最新版免root下载的内容,轻松修改游戏数据,赶快来一起来看看吧。 1、支持更多应用游戏的多开、双开,……
下载gg修改器兔root,下载 gg修改器兔root,让你的手机ROOT变得更加容易 分类:免root版 871人在玩 现在,越来越多的手机用户开始关注ROOT的问题。毕竟,ROOT是一种能够使手机功能更加强大、更加个性化的方法,而且对于一些需要进行深度定制的用户来说,ROOT已经成为了必备的工具。……
下载gg修改器设备尚未root,下载最新的GG修改器,轻松修改游戏实现无限可能 分类:免root版 1,649人在玩 GG修改器是一个非常流行的游戏修改工具,它使得玩家可以在游戏中进行各种修改,比如无限金币、无限生命等等。这个工具非常好用,而且它还可以解锁游戏中的隐藏功能,让您能够更好地……
下载gg修改器华为root,下载推荐:华为手机必备的GG修改器Root工具 分类:免root版 1,017人在玩 作为一名华为手机用户,你可能会遇到一些受限于系统权限的问题。比如无法删除预装软件,无法调整某些设置等等。这时候,一个强大的ROOT工具就可以帮助你解决这些问题。今天,我要向……
下载免gg修改器root助手_gg修改器免Root 分类:免root版 4,559人在玩 各位游戏大佬大家好,今天小编为大家分享关于免gg修改器root助手_gg修改器免Root的内容,轻松修改游戏数据,赶快来一起来看看吧。 本教程包你进到系统桌面! 手机开Windows虚拟机已……
下载root gg修改器,下载root gg修改器,畅享游戏乐趣 分类:免root版 3,738人在玩 Root gg修改器是一款非常实用的Android游戏辅助工具,它可以让你在游戏中快速获得更多的资源和道具。如果你是一位喜欢玩手机游戏的玩家,那么Root gg修改器绝对值得你一试。 无需Ro……
下载gg修改器免root电脑版,软件推荐:GG修改器免root电脑版 分类:免root版 1,053人在玩 作为一名游戏玩家,在游戏中遇到困难或者想要更好地体验游戏,我们可能需要使用各种修改器。其中,GG修改器是一个非常优秀的修改器,可以帮助我们快速实现各种游戏操作。而现在,GG……
下载gg修改器root怎样获得,掌握您的设备:GG修改器root 分类:免root版 1,746人在玩 如果您是一位Android手机玩家,您肯定会遇到这样的问题:一些应用程序或游戏需要获取Root权限才能运行。然而,获取Root权限可能很困难,甚至有时可能会使您的设备无法正常工作。 幸……
下载gg修改器无root怎么运行,下载GG修改器无root版,让你尽情畅玩游戏! 分类:免root版 4,017人在玩 在现如今的游戏时代,越来越多的玩家们追求着更加优秀、更加刺激的游戏体验。而在这个过程中,我们不可避免地会遇到一些难以解决的问题,比如游戏通关困难、金币不够用等等。这时候……
下载