如何批量处理一个大约1k条数据的表?
1. 使用query.limit(1000)出来批量处理,然后save。
2. 建立limit(100)的query, 分为10个,分别处理

现在的问题是,
1、2 都不能够成功(时间太长),不能够以cloud function来使用
请问如何解决这样的需求?

对,请问有什么比较合理的方法吗?

我不是工作人员,我也不知道额。你可以问问工作人员。
我能想到的就是搞个定时任务,比如分10次调用,这样就不会出现一次调用里要处理1000条数据的情况了。

谢了,但是我这是一个类似于排名的东西,是需要一起处理的。

我也遇到相同问题,你有解决么?

没有,没有找到一个很好的解决方案。
不太清楚缓慢的原因,是内存数据太大,还是查询速度呢。
我现在的解决方法是: 我打算用Ruby写一个REST ful脚本,放在服务器上定时执行,反正REST API(查询更新)调用是没有请求限制的。
不知道你怎么想?

能认识一下吗?交个朋友可好?我qq, 343776794

这种问题遇到了,又没人回应,感觉好不爽啊。还能碰到你们几个回应的朋友,算是不错了

ok,我也打算在云引擎哪里做个定时处理函数。

那样不行吧,不还是leancloud的环境嘛,我的是在阿里云上部署了一个任务,使用 REST 方式处理数据的

Hi,可否描述一下你的具体需求呢?
比如说,「批量处理一个大约1k条数据的表」,是一次性呢,还是定时呢,还是需要响应某个请求呢?

「1、2 都不能够成功(时间太长)」到底指的是什么问题呢?

需求:

在一个时刻内将大概2k多的数据通过一个排名规则全部设定一个排名数值。

大概我的方法流程是这样的:
1. 将全部数据查询出来,然后按照排名规则排序, 然后全部save, 全部save的结果返回时间太长。
2. 将数据简单的按照一个字段来做排序,并设定数值。数据更新太慢, 全部数据更新完毕时间反应太长。

建议使用 LeanCache 服务提供的 redis。redis 中有个类型 zset 非常适合进行排名。