标题是标题,但其实讲的内容当然是不一定只是在树梅的设备上用的。不要太纠结于表面,我不改标题是为了尊重原作者
原文来自于hugo zhu的网站:http://hugozhu.myalert.info/2013/03/08/block_failed_ssh_attempts_with_iptable.html,看了他的名字,你也可以猜出他的微博定就是http://weibo.com/hugozhu。OK,不扯蛋,上原文:
Raspberry Pi整天开着,如果用缺省SSH端口对外开放,就会经常遇到扫描SSH密码的肉鸡。虽然密码不是很简单,但还是感觉很不安全的。
系统的ssh登录日志文件在:/var/log/auth.log,登录失败时会记录以下格式的日志:
Mar 7 10:31:51 raspberrypi sshd[24510]: Failed password for root from 221.8.19.129 port 4066 ssh2Mar 7 10:31:55 raspberrypi sshd[24514]: Failed password for root from 221.8.19.129 port 4079 ssh2Mar 7 10:31:56 raspberrypi sshd[24518]: Failed password for sshd from 221.8.19.129 port 4080 ssh2Mar 7 10:32:26 raspberrypi sshd[24522]: Failed password for sshd from 221.8.19.129 port 4149 ssh2
用最简单的Shell脚本来解决这个问题:
guard.sh
#!/bin/bash-
last_ip=""tail -f /var/log/auth | while read LINE; do{ if [[ "${LINE}" =~ "Failed" ]]; then ip="$(echo ${LINE} | awk '{print $(NF-3)}')" if [[ "$last_ip" == "$ip" ]]; then echo "block $ip" #curl -s --data-ascii "uuid=<my iphone's uuid>" --data "body=${LINE}" http://raspberrypi/pushme iptables -A INPUT -s "$ip" -j DROP fi last_ip=$ip echo $LINE fi}done
用root用户执行以下命令,也可以放到启动脚本里:/etc/rc.local
nohup /root/bin/guard.sh > /var/logs/guard.log 2>&1 &
如果连续两次输错密码,那ip就会被封,我另外加了一个报警,会通知到我的手机,这下感觉安全了些。
登录Pi用iptables -L可以看到被封杀的IP列表,如果需要解封这些IP,可以用命令iptables -F,也可以用crontjob每天定时运行一次iptables -F来清除
脚本还很简单,还可以有不少改进,可以在评论里讨论。
---EOF---
越来越发现,sablog需要改版了。再不改。alexa排名下降不说,最关键的是,代码的显示不爽了。只是想到改版后有几千篇的文字需要一一调整就痛苦。
一直以为wget只是下载点东西的工具。看到一篇网上的文章,才注意到wget原来还可以post数据。
为什么我想用wget来post数据呢?是因为。。。busybox不带curl,而bash版的ddns更新(dnspod的域名更新)是使用curl的。既然curl不支持,我就google了一下:wget能够post数据吗?
果然,第一篇就是:
http://hi.baidu.com/hhflying/item/7ae51f3d30ce64fdde2221d9
- 这段时间需要用wget做一些事情,主要是抓取网页的数据工作,发现wget还是很强大的。下面是一些应用场景:
- 1. 简单页面的抓取
- wget的最基本用法
- wget http://domain.com/path/simple_page.html
- 2. 添加自己的head
- 有些网站或者页面,需要额外的认证,所以需要添加额外的HTTP Header,使用方法:
- wget --header="MyHeader: head_value" http://domain.com/path/page/need_header.php
- 3. 伪装成浏览器
- 有些网站,例如facebook,会检测请求方式是否是浏览器,如果不是正常的浏览器,那么会redirect到一个"incompatible browser"的错误页面。这时候需要wget伪装成一个浏览器(我是Mozilla Firefox!):
- wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.9.2.3) Gecko/20100401 Firefox/3.6.3 (.NET CLR 3.5.30729)" http://domain.com/path/page/check_user_agent.php
- 4. post数据到某个页面
- wget不光可以用get方式请求网页,还可以post data的,那样就可以实现自动注册、自动登录了(有验证码的页面除外。。。。)
- wget --post-data="user=user1&pass=pass1&submit=Login" http://domain.com/login.php
- 5. 访问需要登录的页面
- 有些页面的访问需要登录,访问的时候需要传递cookie,这时候就需要和上面提到的post方式结合。一般过程是:post用户名和密码登录、保存cookie,然后访问页面时附带上cookie。
- wget --post-data="user=user1&pass=pass1&submit=Login" --save-cookies=cookie.txt --keep-session-cookies http://domain.com/login.php
- wget --load-cookies=cookie.txt http://domain.com/path/page_need_login.php
- 暂时就探索到这些,以后有什么新的用法,继续补充。
不过,可惜的是,我运行下来之后,还有一个小问题:
https://dnsapi.cn/Record.Ddns: HTTPS support not compiled in.
哎。。。我没有openssl,https不支持啊。。纠结,uis2000的路真难走。
因为最近在写点东西遇到了这方面的问题。所以关注了一下,这段内容是摘抄来的。因为以前用PHP的时候,一般就是shm_attach/msg_get_queue/ 管道等
有些东西不是特别熟,所以记录下来做笔记
Linux下进程间通信大致有以下几种:(来自:http://golang.usr.cc/blog-1403-3071.html)
- 1.socket
- 2.管道(包括匿名管道适用于父子进程,命名管道)
- 3.信号量
- 4.共享内存
- 5.消息队列
-
- 1.socket
- socket可以用于本地进程间通信也可以用于远程间,是最常用的。
- 2.管道--匿名管道
- 一般用pipe创建,在父子间通信。在父进程中关闭读/写管道,在子进程中关闭写/读管道。
- 2.管道--命名管道
- 一般用mkfifo来创建。如果没有说明管道是非阻塞的,那么一个为读打开的管道将阻塞直到有进程为写打开此FIFO。同样如果为写打开的管道将阻塞直到有进程为读打开此FIFO。
- 3.信号量
- 一个进程可以用kill发送信号至另外一个进程。
- 4.共享内存
- 使用函数:shmget、shmat、shmctl、shmdt
- 用shmget函数得到一块内存,并用shmat设置为允许本进程使用这块共享内存。使用完以后用shmdt删除内存块。
- 5.消息队列
- 使用函数:msgget、msgsnd、msgrcv、msgctl
- 使用步骤同上。
因为内容其实并不多,所以我干脆直接上原文了。做为一个PHP(拍黄片)的User,抠模版实在太常见了,所以。。。。找啊找,想不到,工具原来一直就在我们身边
原文地址:http://blog.chinaunix.net/uid-22780578-id-3346384.html
1、Linux下的wget命令:
wget :下载工具。
下载基本的文件:可以直接:wget -c http://××× 或者wget -c ftp://××
参数: wget -c:continue 表示断点续传..
-b :background 后台成为进程运行。
-O :文件另存 :
-i :下载后跟文件包含的链接。 wget -c -i **.txt
-t 尝试链接的次数, -t 0 无限次尝试
--linit-rate 限制速度 wget --linit-rate=200k http://××
更多基本命令参见 man
备份某个网站镜像: wget:-k 转换成为本地的链接
-r 下载对应链接的内容。(默认是所有)
-np 不下载站外链接
-p下载网页需要的元素,css ,img等
现在,基本可以用 : wget -c -k -r -np -p http://××× , 还可以用命令 -m --mirror 来实现: wget -c -m -p http://××
2、教你怎么保存好的网站,制作成chm,pdf,txt,epud
有时浏览网页时,发现一些较好的知识类网站,想保留下来,存个书签又不能很好保存,又不能离线查看,有时还会过期。所以最安全也最可靠的方式是把网站镜像下载,也就是所谓的把网站dowm下来,保存在本地,但是查看时也有诸多不便,因为每次又要找到主页(index),并且文件比较分散,不好管理而且不美观。 所以本文教你怎么保存网页,乃至整个网站
使用到的工具: wget (linux ,windows,mac、 windows下 winchm或者quickchm等,以上2个比较简单(或者使用官方的HTML HELP workshop,不过不推荐)好用,其他的还有很多epudbuilder ,就jotoh等,如要是转换pdf还需要Adobe Acrobat ,我主要是在win下完成的。
方法:
- wget : 凡是使用linux的肯定知道这个工具,大部分都用作下载工具其实它的功能远不止于此,可以来镜像网站,网站备份等windows下系统是没有这个工具的,但是可以通过其他的方法来使用这个工具。 以下载wget 的windows版本,http://gnuwin32.sourceforge.net/packages/wget.html还可以用 MinGw,cygwin等等win下的linux环境软件,可以随意安装一个,其实这两个的用途远不至于此。同时还可以使用其中的wget
XML/HTML代码
- mkdir **(**为你要新建的目录,随意)
- cd **
- wget -m -L -k -p http:// ****
- 或者
- wget -r -p -np -k http:// ***(更详细的wget介绍可参见man wget )
- 以上命令是来down网页的
- 下载后会有一个或多个目录,记住路径。然后运行以上的winchm或是quickchm制作chm文档,具体参见软件自身的详细介绍。
- 可以使用winchm的单html输出功能,可以制作出一个html文件。此时就可以使用Adobe Acrobat制作pdf文档,或是别的什么的,
- 使用epud或是jotoh等来装换chm到epud文档,或者也可以直接编辑html到epud文档。。
官方的php5版本到现在还是5.3但我想用json_encode的unescape_unicode的选项,所以,只能升级PHP至5.4了
其实真的有现成的包,如果你搜索网上的内容,他们会也和你说,看一下:dotdeb.org吧。于是我看了一下dotdeb.org。确实不错,不但有升级教程,还有mirrors
1、安装dotdeb.org的源:参考:http://www.dotdeb.org/instructions/
有两种试,如果你只是安装PHP,就直接将下面的内容复制到/etc/apt/sources.list
XML/HTML代码
- deb http://packages.dotdeb.org squeeze-php54 all
- deb-src http://packages.dotdeb.org squeeze-php54 all
2、GPG的KEY更新并加入到系统里
XML/HTML代码
- wget http://www.dotdeb.org/dotdeb.gpg
- cat dotdeb.gpg | sudo apt-key add -
如果你本来就是root,那上面的sudo就不需要了
3、apt-get update
4、apt-get upgrade
就这样,你成功了。。。