windows系统上大数据量方案思考
2016-12-27 本文已影响95人
我是你军哥
公司的服务器采用的是windows2008R2,,目前没有多余的服务器
但是windows的服务器配置还是很高的
8G内存,8核心CPU,500g硬盘1G带宽
场景是数据库数据量有200-300w左右
每天新增2w,并发每秒5-10个左右
并且存在上传下载业务,主要是上传业务
这些都是通过api接口实现我们的web采用的wnmp环境
php框架采用的是laravel5.2,目前api接口存在第一次访问慢原因,这些都是因为nginx在windows上部署的原因。nginx在windows上确实发挥不出它的特长(nginx菜鸟,只能看网上文章更配置)
所以我们打算外部的api接口全部运行在linux上
windows上安装虚拟机 ,然后虚拟机安装lumn跑api,web服务由windows上的nginx处理,然后让nginx反向代理公网ip到虚拟机上。
这样我们的api大并发处理,数据库写入都可以用到nginx的优势。
不知道有没有更好的方案,这是我目前思考出来的
朋友说让我在docker上跑,打算试试看