PHP文件读写操作如何应对高并发长尾词处理挑战?
- 内容介绍
- 文章标签
- 相关推荐
本文共计1903个文字,预计阅读时间需要8分钟。
原文:本文实例讲述了PHP读写文件高并发处理操作。分享给大家供大家参考,具体如下:
背景:最近公司游戏开发需要知道游戏加载的流失率。
背景:因为我们是网页游戏。
具体内容:- 背景描述- 游戏开发需求- 网页游戏加载流失率
本文实例讲述了PHP读写文件高并发处理操作。分享给大家供大家参考,具体如下:
背景:
最近公司游戏开发需要知道游戏加载的流失率。因为,我们做的是网页游戏。玩过网页游戏的人都知道,进入游戏前要加载一些资源。最后才能到达创建角色的游戏界面。我们有一个需求就是要统计在加载过程中还未到达角色创建界面而流失的用户数量。
我们在加载开始就进行统计人数,加载完成之后再记录人数。这样,通过用加载前的人数减去成功加载后的人数。就知道了加载的流失率。就可以知道游戏是否还要继续优化加载过程,降低用户加载游戏率。
由于,我们的量都是从*主流的合作媒体进行导量过来。所以,并发非常高,据粗略计算应该能达到每秒1000左右的并发数量。
加载前的人数本来想放到游戏内部的缓存平台。但是,游戏后端的同事担心并发太高,导致资源无故浪费。因为,内存的释放并不是实时响应的。所以,将统计的人数放到在另外一台服务器:统计服务器。
我刚开始采用的方案如下:
通过php的file_get_contents()与file_put_contents()进行读取与写入。第一次读写就向文件写入1,第二次加载就在原来的基础上加1.以此类推.这种顺序的思想完全不存在任何问题。问题就出在,我们的服务器不可能是顺序形式的。
准确的说,并发的访问不是顺序的。
本文共计1903个文字,预计阅读时间需要8分钟。
原文:本文实例讲述了PHP读写文件高并发处理操作。分享给大家供大家参考,具体如下:
背景:最近公司游戏开发需要知道游戏加载的流失率。
背景:因为我们是网页游戏。
具体内容:- 背景描述- 游戏开发需求- 网页游戏加载流失率
本文实例讲述了PHP读写文件高并发处理操作。分享给大家供大家参考,具体如下:
背景:
最近公司游戏开发需要知道游戏加载的流失率。因为,我们做的是网页游戏。玩过网页游戏的人都知道,进入游戏前要加载一些资源。最后才能到达创建角色的游戏界面。我们有一个需求就是要统计在加载过程中还未到达角色创建界面而流失的用户数量。
我们在加载开始就进行统计人数,加载完成之后再记录人数。这样,通过用加载前的人数减去成功加载后的人数。就知道了加载的流失率。就可以知道游戏是否还要继续优化加载过程,降低用户加载游戏率。
由于,我们的量都是从*主流的合作媒体进行导量过来。所以,并发非常高,据粗略计算应该能达到每秒1000左右的并发数量。
加载前的人数本来想放到游戏内部的缓存平台。但是,游戏后端的同事担心并发太高,导致资源无故浪费。因为,内存的释放并不是实时响应的。所以,将统计的人数放到在另外一台服务器:统计服务器。
我刚开始采用的方案如下:
通过php的file_get_contents()与file_put_contents()进行读取与写入。第一次读写就向文件写入1,第二次加载就在原来的基础上加1.以此类推.这种顺序的思想完全不存在任何问题。问题就出在,我们的服务器不可能是顺序形式的。
准确的说,并发的访问不是顺序的。

