分两个文件主脚本mq.shkey文件key.txt,一行一个#!/bin/bash mq_host="192.168.0.100:15672" mq_exchange="TestExchange" mq_queue="TestQueue" mq_vhost="%2Fadmin" #/请写%2F user="admin" passwd="admin" cat key.txt|while read payload do #properties根据程序需求实际情况填写 c...
设置url、用户名、密码VC_ADDRESS="https://192.168.1.200" VC_USER="[email protected]" VC_PASSWORD="password"获取cookie方式一:BASE64加密一下VC_BASE64=$(echo -n "$VC_USER:$VC_PASSWORD" | base64) curl -X POST -H "Authorization: Basic $VC_BASE64" -k https://$VC...
最近需要排查数据库敏感信息,网上找了一些脚本和工具效果都不好,自己瞎写了一个,记录一下:#!/bin/bash # 忽略系统表 ignore_db="sys|information_schema|performance_schema|mysql" # 每张表取前N条数据 limit="50" # ex: search_info 192.168.1.1 3306 xxxx function search_info(){ host="$1" port="$2" ...
说明一般来说,大数据集群的HDFS会有多个存储节点,每个存储节点会配置多个目录(一个磁盘挂载一个目录),这样组成一个m*n的存储池子,速度和可靠性都不错,用一段时间后,随着业务增长,HDFS就不可避免的需要扩容,扩容的操作比较简单,就是每个节点添加磁盘,然后挂载目录,修改HDFS配置,重起服务即可。这时候磁盘空间是出来了,但是HDFS并不会主动平衡,也就是之前存满的目录还是满的,告警还是会有,这时候就需要手动平衡磁盘,这里做一下记录,方便后续需要使用的时候快速操作。步骤生成平衡计划hdfs diskbalancer -plan {nodename}执行平衡计划hdfs diskbalan...