拼多多的成功上市 是对中国发展的侮辱

拼多多的成功上市 是对全中国人民智商的侮辱

或许有些绝对
作为一个互联网10年以上经验的老兵, 偶尔会看到各种群里会有这玩意
但是从没点击和关注过

直到上市以后,铺天盖地的负面新闻 才发现这是个什么玩意
这个玩意从广义的经济学来说 并未解决任何问题
所有的概念都是虚的

那么如此成功 成功在那里? 成功在对于人性的把握
骨子里的贪便宜, 便宜到足够让大家忘记对于质量的担心

中国目前处于发展失衡的状态, 一二线城市和三四五线的城市 消费观念泾渭分明
一二线城市 薪资水平和消费观念已经彻底改变,更注重品质,对价格不在敏感
三四五线城市 更注重价格因素

拼多多成功的利用中国的成熟的快递渠道,将一二线城市无市场的山寨杂牌物品,送到三四五线市场

于是乎出现了 ” 康帅傅、七匹狠、雷碧、大白免、白事可乐、老于妈、曰猫洗洁精、娃娃哈、松卞电器……等品牌,纷纷发来贺电,祝贺拼多多上市成功。”的段子

在正规市场没有销售渠道的各种杂牌物资, 搭上拼多多的网络快车,进入三四五线的千家万户
各种家庭作坊生产的 无质量无检验的一切物品,堂而皇之的进入市场流动
399的40寸彩电,299的洗衣机,199的VIVI手机,8块钱的奶粉
变成”万物皆可拼多多…..”

我想问问 8块钱的奶粉,真敢喂孩子吗?

399的彩电? 299的冰箱? 有安全保障吗? 发生问题比如火灾算谁的?
价格在这里,质量可想而知, 便宜没好货 这句 已经流传几千年了

但是拼多多不怕,没事
因为三四五线的大部分用户维权意识不强
容易忽悠,有问题T皮球, 用户也没办法, 最后用户也只能认栽
不像一二线城市,P大的事就12345,各种市长热线,消费维权,电视台报纸各种媒体投诉一波
搞的工商局,市场监察各种部门都来轮一次

真正可怕的是, 在一个本身缺乏信用的社会里如此消耗用户信心,最后的结果又会如何
399买个彩电,7天就坏了, 这个用户下次还敢在其他电商平台在购买东西吗?

这样一个企业竟然还能上市,还能有估值
资本市场真是太神奇了

时间是把杀猪刀, 现在的所作所为, 终究有一天 需要还的

解决 mv: Argument list too long 问题

解决 mv: Argument list too long 问题

这个文件一般都是目录下 文件太多引起的
这个”太多” 不是固定的, 而是内核预定的

可以修改 改为
ulimit -s unlimited

就好了

当然通过rsync 或者 for 循环 都可以
但是麻烦啊
…..

CentOS7 e1000 / 82574 网卡系列的bug和修复

这个也算是个奇葩问题了
这么多年就是不能打个补丁

这破问题 害我损失不少客户

FFMPEG 硬件转码 GPU CUDA9 问题

FFMPEG 硬件转码 GPU CUDA9 问题

傻逼了又,头脑发热升级下驱动版本
结果出现灵异问题
驱动安装和CUDA那些没错

编译FFMPEG出现
ERROR: cuda requested, but not all dependencies are satisfied: ffnvcodec
查询了下cuda9才又这个错误,好像是pkgconfig里命名导致问题

修复方式
cd /opt
git clone https://git.videolan.org/git/ffmpeg/nv-codec-headers.git
cd nv-codec-headers
make
make install

在编译遇到
ERROR: cuvid requested, but not all dependencies are satisfied: cuda
我很确认 cuda是安装好了的
卸载,重新安装,ldconfig 这个问题神奇的没了

这样就算升级成功

测试下

没问题

N卡官方
https://developer.nvidia.com/ffmpeg

nginx Cache loader process exited 问题 产生的原因和解决办法

nginx Cache loader process exited 问题 产生的原因和解决办法
nginx Cache loader process exited

这个一般出现在缓存大量碎片文件的情况下
例如 大量图片文件的缓存 大量小文件的缓存

这个错误是由于缓存配置不当引起的
主要的不当在于配置的缓存目录深度太浅
导致单一缓存目录下文件过多,导致寻道错误
或者nginx缓存控制器查询文件超时
如果在加上系统句柄数有限制 100%间歇性出现

建议解决办法
1. 使用SSD硬盘
2. 使用XFS,EXT4文件系统,建议XFS, 不要使用EXT3,单一目录有最大文件限制,超过无法写入文件
3. 优化NGINX的缓存目录深度
4. 增加服务器,按目录平滑分离

Linode KVM升级以后发现些问题

Linode KVM升级以后发现些问题
感觉分配的CPU性能 比以前要差些

主要表现在编译 GCC编译的时候
以前如丝般顺滑, 现在偶尔会在一些特殊的地方 出现卡顿

这个也可能和区域有关系
使用率低的区域 性能可能好些

不过还是

总体来说
日本区域性能最差
达拉斯性能最好

其实CPU都是一样的

【分享】一个不算成功的数据网站的开发和运营和流量数据的案例 包括原理和想法介绍

分享个不算成功的数据网站制作案例 包括原理和介绍

很早以前 打算利用信息差 尝试下数据网站的存活率
所以设计了这个网站

这个例子算比较早 好几年了 网站现在还存活着
域名使用的是 www.91r.net 很简陋 主要是编程相关的内容
这个内容是来源于 stackoverflow.com

收录可以查看 2017-07-02 更新

百度 8月3日 收录过千万了
该网站共有 10,454,575 个网页被百度收录

百度: https://www.baidu.com/s?wd=site%3A91r.net

Google: https://www.google.com/search?q=site%3A91r.net

当初最早设计的时候
姑且叫第一个版本吧 直接使用小偷程序的原理 就是抓数据 返回
后来发现英文内容 搜索对英文重复内容的判断过于强大 基本无法带来什么流量
数据在多也没用

所以换个思路 就弄了第二个版本
第二个版本的设计 小偷还是小偷 但是利用翻译 把内容翻译为中文
这里的信息差 就是内容唯一性,以及使用百度翻译结果给google抓取
结果是成功的 很短的时间 流量上升到5000IP/天

继续阅读【分享】一个不算成功的数据网站的开发和运营和流量数据的案例 包括原理和想法介绍

最近通过搜索访问本文章的关键词:

semget: No space left on device N次遇到这个问题

This relates to semaphores on your system (you’ve run out). Run the following to clear them out:
ipcs | grep apache | awk ‘{print $2}’ > sem.txt
for i in cat sem.txt; do { ipcrm -s $i; }; done;

If this becomes a common occurance, then you may need to change your ipcs semaphore limits.
Set the following in your /etc/sysctl.conf:
kernel.msgmni = 1024
kernel.sem = 250 256000 32 1024

and reboot your system to load in those values. 继续阅读semget: No space left on device N次遇到这个问题

最近通过搜索访问本文章的关键词: