运维开发

windows环境pip无法安装dlib库的终极解决

问题 机器学习需要安装dlib库,网上搜索 解决方案在最底部 网上搜索的解决方案 pip install cmake pip install boost pip install dlib 然而,在安装dlib的时候,错误原因不仅限于没有安装cmake。 报错如下 Collecting dlib Using cached dlib-19.24.0.tar.gz (3.2 MB) Preparing metadata (setup.py) ... done Building wheels for collected packages: dlib Building wheel for dlib (setup.py) ... error error: subprocess-exited-with-error × python setup.py bdist_wheel did not run successfully. │ exit code: 1 ╰─> [320 lines of output] running bdist_wheel running build running build_py package init file 'tools\python\dlib\__init__.py' no...

Windows WLS2使用本机ss代理访问github

关键问题 WSL每次启动ip不一样,所以不能用静态方法设置http代理。 WSL会把宿主ip地址写入 获得当前宿主ip地址的方法 cat /etc/resolv.conf | grep nameserver | awk '{ print $2 }' 手动设置代理的方法 $ cat /etc/resolv.conf | grep nameserver | awk '{ print $2 }' 172.29.176.1 $ export https_proxy="http://172.29.190.80:10000" # 下载github库 $ wget https://github.com/microsoft/Bringing-Old-Photos-Back-to-Life/releases/download/v1.0/face_checkpoints.zip --2022-06-05 01:46:58-- https://github.com/microsoft/Bringing-Old-Photos-Back-to-Life/releases/download/v1.0/face_checkpoints.zip 正在连接 172.29.176.1:10000... 已连接。 已发出 Proxy 请求,正在等待回应... 302 Found 位置:https://obj...

写个dockerfile自动部署hugo

创建dockerfile FROM golang:1.17-alpine # Optionally set HUGO_BUILD_TAGS to "extended" or "nodeploy" when building like so: # docker build --build-arg HUGO_BUILD_TAGS=extended . ARG HUGO_BUILD_TAGS ARG CGO=1 ENV CGO_ENABLED=${CGO} ENV GOOS=linux ENV GO111MODULE=on ENV HUGO_VERSION=0.93.3 ENV HUGO_USER=hugo ENV BASE_DIRECORY=/home/hugo ENV SITE_NAME=hugosite ENV HUGO_SITE_DIRECORY=${BASE_DIRECORY}/${SITE_NAME} ENV HUGO_URL=https://github.com/gohugoio/hugo/releases/download/v${HUGO_VERSION}/hugo_extended_${HUGO_VERSION}_Linux-64bit.tar.gz #hugo_extended_0.93.3_Linux-64bit.tar.gz ENV GLIBC_...

cat命令提取json中的key

cat连用grep进行筛选,筛选出的json还可以提取key 距离提取满足grep筛选条件的记录,并提取MessageID字段内容 cat log-20210326-* | grep xxx | grep MessageID | grep -Po 'MessageID[" :]+\K[^"]+'

centos安装java 8

查看当前linux自带jdk是否安装,以及jdk版本 java -version rpm -qa | grep java rpm -qa | grep gcj rpm -qa | grep jdk # 如果已经有jdk, 会显示如下 java-x.x.x-gcj-compat-x.x.x.x-xxjpp.xxx java-x.x.x-openjdk-x.x.x.x-x.x.bxx.exx 如果有已安装的jdk,则挨个卸载,没有则跳过这一步 rpm -e –nodeps java-x.x.x-gcj-compat-x.x.x.x-xxjpp.xxx rpm -e –nodeps java-x.x.x-openjdk-x.x.x.x-x.x.bxx.exx 如果找不到openjdk source,还可以如下方法卸载 yum -y remove java java-x.x.x-gcj-compat-x.x.x.x-xxjpp.xxx yum -y remove java java-x.x.x-openjdk-x.x.x.x-x.x.bxx.exx 官网下载jdk,并安装。 https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html 我们使用:Linux x64 Comp...

阿里云centos环境python的pyppeteer无法下载依赖chromium组件

pypetter能做什么 自行百度 为什么没法下载 省略原因,只有mmp 解决方法 1 既然无法下载,那我们就手动下载然后放到指定位置么。问题来了 从哪下载 放到哪里 从哪里下载 找这个文件:find / -name chromium_downloader.py python 3.8环境下,找到文件:/usr/local/lib/python3.8/site-packages/pyppeteer/chromium_downloader.py 备份py库文件稍后恢复,/usr/local/lib/python3.8/site-packages/pyppeteer/chromium_downloader.py 编辑 vim /usr/local/lib/python3.8/site-packages/pyppeteer/chromium_downloader.py 备份 mv /usr/local/lib/python3.8/site-packages/pyppeteer/chromium_downloader.py.bak /usr/local/lib/python3.8/site-packages/pyppeteer/chromium_downloader.p 稍后恢复 mv /usr/local/lib/python3.8/site-packages/pyppe...

从git历史删除中恢复某一个文件

有个功能点之前不需要,删掉了,现在又需要还得把他找回来。确定git能完成这项任务,但是学会之后并没有实操,早已经不记得了。 这里记录一下操作过程 git命令查看文件删除hash戳 git log --all --full-history upload\xxx.php 输出(已做处理,不要照抄): commit d6cd1e2bd19e03a81132a23b2025920577f84e37 Author: zzz zzz@qq.com Date: Wed Apr 11 11:11:11 2020 +0800 修改记录。。。。。 ok,我们明确知道删除改文件的commit是d6cd1e2bd19e03a81132a23b2025920577f84e37 2. 查看该提交文件记录 git show d6cd1e2bd19e03a81132a23b2025920577f84e37 upload\xxx.php 3. 找回文件,git checkout 后面指定hash,紧接着加一个"~1",表示从删除前的commit获取 git checkout d6cd1e2bd19e03a81132a23b2025920577f84e37~1 upload\xxx.php all done

Centos 7升级内核5.x

当前环境查看 uname -r 3.10.0-514.el7.x86_64 安装新版本内核 rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm yum --enablerepo=elrepo-kernel install kernel-ml -y 查看当前已安装内核 查看已安装版本 rpm -qa | grep kernel kernel-3.10.0-1062.18.1.el7.x86_64 kernel-tools-libs-3.10.0-1062.18.1.el7.x86_64 kernel-tools-3.10.0-1062.18.1.el7.x86_64 kernel-ml-devel-5.5.13-1.el7.elrepo.x86_64 kernel-3.10.0-957.el7.x86_64 kernel-headers-3.10.0-1062.18.1.el7.x86_64 kernel-ml-5.5.13-1.el7.elrepo.x86_64 卸载安装的内核 rpm -e kernel-ml-devel-5.5.13-1.el7.elrepo.x86_64 rpm -e kernel-ml-5.5.13-1.el7.elrepo.x86_64 查看启动项目 ...

godaddy生成ssl证书

生成crt和private key openssl req -new -newkey rsa:2048 -nodes -keyout your_domain_name.key -out your_domain_name.csr 打开godaddy把生成的your_domain_name.csr提供给godaddy。godaddy会去生成证书。 下载godaddy证书。两个文件,一个大概叫做85814333f334c3c5d.crt,另一个大概叫做叫做gd_bundle-g2-g1.crt。把两个文件上传到服务器某一目录下。执行如下操作合并两个文件 cat 85814333f334c3c5d.crt gd_bundle-g2-g1.crt >> your_domain_name.cst 打开nginx网站配置文件,加入 listen 443 ssl http2; ssl on; ssl_certificate /存储路径/your_domain_name; ssl_certificate_key /存储路径/your_domain_name.cst; ssl_session_timeout 5m; ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_prefer_server_ciphers on; ssl_ciphers "...

MySQL主从数据库同步设置

需求背景 我自己blog被墙,而我希望国内能正常访问,同时我自己写blog也不要太卡。刚好手头有一台国内闲置VPS。 所以决定这么折腾一下: 阿里云智能解析,境外访问解析到linode server; 国内访问,解析到腾讯云。 我日常写博客自然是写到linode server的数据库,我不可能手动同步俩数据库,所以设置数据库master slave吧 下面记录下如何设置master slave 找到数据库配置文件位置 找到mysql配置文件my.cnf的位置 # mysql --help|grep 'my.cnf' .... 本文假设配置文件位置:/etc/my.cnf 设置master 修改mysql配置文件/etc/my.cnf 开启master模式,server-id=1 log-bin = mysql-bin # 日志文件名称 server-id = 1 # 主数据库 ID = 1 binlog-do-db = game # 只同步game数据库 # 忽略mysql,performance_schema和information_schema三个库 binlog-ignore-db = mysql binlog-ignore-db = performance_schema binlog-ignore-db = in...
执行时间: 44.057130813599 毫秒