linux-read笔记
#### 前言 read 接收输入的数据 写脚本经常用的命令 之前都是瞎鸡儿用 从来没考虑仔细看看 文档 这次有时间 看看 记录下这篇笔记 #### 实例 ##### 读取键盘输入 ``` echo ' #!/bin/bash echo "请输入名字:" read name echo "你的名字
#### 前言 read 接收输入的数据 写脚本经常用的命令 之前都是瞎鸡儿用 从来没考虑仔细看看 文档 这次有时间 看看 记录下这篇笔记 #### 实例 ##### 读取键盘输入 ``` echo ' #!/bin/bash echo "请输入名字:" read name echo "你的名字
#### 前言 在需要使用复杂的长命令去解决一些事情的事情 很多时候 需要将标准输出作为参数去使用 而不是当做标准输入去使用 那这个时候 就需要xargs 将标准输出的值重定向到某个命令的参数上去 并且执行这个命令 ####
#### 前言 查看 命令执行记录 重新执行历史命令 应该也是常规操作 之前都是 cat .bash_history 去看 根本没注意其他信息 现在统一记录一下笔记 #### 历史记录的相关环境变量 |变量名称|变量作用|备注| |:------|:-----|:---| |HIS
#### 前言 linux中 经常使用 终端 一次打开多个终端 很麻烦 不好用 有个很强悍的工具 tmux 很出名的分屏工具 ubuntu安装 ``` sudo apt install tmux ``` 然后 在终端输入 ``` tmux ``` 这个时候 终端已经启动tmux 默认是ctrl+b 是快捷键
#### 前言 linux下面 有时候常用的命令太吉尔长了 命名别名是必须的 #### 使用示例 有时候有些命令常用 例如 'ls -a' 'ps -aux' 这样的 如果每次输入全部 麻烦的很 通过设置别名 可以快速使用 ##### 设定临时 alias 只能在当前
#### 前言 虽然经常写dockerfile 但是老是去官网查询 翻墙慢的一批 干脆 从官网上把常用的dockerfile关键字记录下来方便查询 参考地址: https://docs.docker.com/engine/reference/builder/#parser-directives https://yeasy.gitbooks.io/docker_practice/im
#### 前言 在使用swarm编排docker的时候 由于swarm 需要暴露端口需要ingress网络 但是 eureka client 注册的时候 不需要使用 ingress这种网络的网卡 那么这个时候 就需要配置 eureka client 偏向的网络和排除的网卡之类的配置 #### 相关
#### 前言 最近使用基于http作为rpc调用协议的时候 由于选择使用json来传递数据 不得不做一波常用的json解析框架的性能、稳定性、可定制性、使用难度、对复杂对象的支持程度等等方面来对比一下 只针对常用的几种 json解析
#### 前言 最近看了看 docker 标准输出和标准错误的日志采集 发现 filebeat 可以直接监听 docker的启动结束等动作 并且几乎不需要配置什么 就可以很轻松的采集到node上的docker运行的日志 而且也可以直接接入 k8s的标准输出和
#### 前言 cache可以说是后端提高响应速度、承载能力的标准套路了 spring boot中提供spring boot starter cache 组件 配合spring boot starter redis 或者其他缓存组件 可以很简单的使用缓存 #### spring cache 介绍 一套基于spring aop的方式 为函
#### 前言 最近 在学习 jvm相关的知识 之前 一直看的一些博客 文章 没有静下心 看看 jvm相关的书籍 干脆买了一本 周志明大佬的jvm的书 #### 内存区域划分 ![内存区域划分图](http://asset.xujiuming.com/private-asset/jvm_runtime_data_ar
#### 前言 一直想找个能够存储比较大的文件 而且又能像git一样操作方便快捷 开始准备自建svn来达到需求的 后来看github的一些文档看到了git lfs (Git Large File Storage)功能 干脆了解了一下 顺便记录下这篇笔记 方便以后
#### 前言 最近写的代码 太多了 感觉质量有所下降 之前本地一直使用 alibaba的code插件 但是没有出团队版本的 干脆搞了一个 sonar 检测一波自己的代码质量 #### sonar docker 方式启动 ``` #安装中文插件的 sonar sudo docker run
#### 前言 用了这么久的jdk8 的stream集合 感觉还是很吊的 特别是作统计计算、集合转化之类的操作 虽然有parallelStream 来进行并行计算 但是 不推荐这么去使用 原因如下 虽然有并行 但是 parallelStream 的并行数量是按照jvm的核
#### 前言 尝试过很多 spring cloud中日志的方案 好多还是需要 集群的支持 但是现在公司还没有那么吊的基础设施 那么 这个时候 就需要 项目能够自己直接通过tcp或者udp直接投递日志到elk或者生成日志文件去采集了 但是 项目