解决 mv: Argument list too long 问题

解决 mv: Argument list too long 问题

这个文件一般都是目录下 文件太多引起的
这个”太多” 不是固定的, 而是内核预定的

可以修改 改为
ulimit -s unlimited

就好了

当然通过rsync 或者 for 循环 都可以
但是麻烦啊
…..

PowerShell因为在此系统中禁止执行脚本解决方法

在Powershell直接脚本时会出现:

无法加载文件 ******.ps1,因为在此系统中禁止执行脚本。有关详细信息,请参阅 “get-help about_signing”。
所在位置 行:1 字符: 17
+ E:\Test\test.ps1 < <<< + CategoryInfo : NotSpecified: (:) [], PSSecurityException + FullyQualifiedErrorId : RuntimeException 查看“get-help about_signing”: 主题 继续阅读PowerShell因为在此系统中禁止执行脚本解决方法

决定把我的一些想法 做成收费文章后发布

我决定把我的一些想法 做成收费文章后发布

这样做的原因 其实和赚钱无关 主要是不希望在烂大街
给一些有执行力希望赚钱的人 一个框架 一个可操作性强的项目
而且有些项目 不是适合每个人,比如让卫道士去操作擦边球的项目 肯定不现实
按自己的想法来吧

看看情况 每次收益全数捐给公益组织 可能感受会好些

虽然这样也无法解决 Cut COPY的问题
最主要的问题

解决螃蟹的问题

在给朋友部署方案
开始考虑这个问题了

当前的想法是
用户访问Web服务器 分配唯一且固定的数据URI 使用算法 做加密字符串
接着以这个字符串 实时Ajax请求B数据服务器 解密
数据服务器 回吐完整URL地址 接着 start watching

fine;

每个用户 使用唯一的uri 可以解决单点IP 传输的内容 被大量捕获的问题
降低螃蟹的危险

B-N 数据服务器使用泛解析
解析个成百上千的域名

当然反代也是个方案 但是涉及一些东西 并不是很好的方案!

有数据了 呵呵

A版DB 1.6G大小 (3643852 total, 查询花费 0.0852 秒)
B版DB 200M大小 13万多点

CSV

哪个神级的人告诉我下
JS可以实现这样的功能?

用户访问 www.test.com/?id=1
调用 www.test.com/q.js

先返回网页内容
一个区域延时载入

q.js的作用是 访问 www.test222.com/query/id/1 网页的内容
并且正则匹配出一些内容 赋值给变量
将变量插入内容区域

说白了就是利用js来采集数据
这样就可以解决客户端查询频率限制的问题了
是真实的人查看 而不是使用服务器端的curl实时采集

好吧 缓存是解决不了的 别人的内容是防盗链的……

Warning: sqlite_open() [function.sqlite-open]: file is encrypted or is not a database in 错误解决

晕死 竟然遇到这种问题
Warning: sqlite_open() [function.sqlite-open]: file is encrypted or is not a database in 错误解决

提示文件可能加密或者不是数据库文件
悲剧

检查了下
竟然是版本的问题
2个db 一个OK
一个不行
建立的工具不一样

一个版本 显示 SQLite version: 2.8.17
另外一个显示 SQLite version: 3.7.7.1

拿2的class去读3的db 所以出现这个问题

转换下数据库就可以了
版本 2 转换3 或者3to2

解决

最近通过搜索访问本文章的关键词:

/tmp目录100% 错误的解决笔记

郁闷 机房分区的时候 tmp分了200m
对于大户来说 马上就满了 改了下 分个1g出来

cd /dev
dd if=/dev/zero of=tmpMnt bs=1024 count=1000000

格式化
/sbin/mke3fs /dev/tmpMnt
备份原tmp
cp -R /tmp /tmp_backup
挂载新兴区
mount -o loop,noexec,nosuid,rw /dev/tmpMnt /tmp

修改权限
chmod 0777 /tmp

复制原内容到tmp
cp -R /tmp_backup/* /tmp/

测试一下 然后删除tmp备份目录
rm -rf /tmp_backup

现在增加一下启动挂载的参数

vi  /etc/fstab
在最后加上
/dev/tmpMnt /tmp ext3 loop,noexec,nosuid,rw 0 0

reboot 一下 就ok了
现在df -hl看看 是不是tmp变为1000m了
这样就不会满了
没办法 内存小了点 如果大点 把tmp挂载到内存上
性能会好很多