总的来说,r的运算速度不算快,不过类似并行运算之类的改进可以提高运算的性能。下面非常简要地介绍如何利用r语言进行并行运算

library(parallel)cl.cores <- detectcores()cl <- makecluster(cl.cores)

detectcores( )检查当前电脑可用核数。

makecluster(cl.cores)使用刚才检测的核并行运算。r-doc里这样描述makecluster函数:creates a set of copies of r running in parallel and communicating over sockets. 即同时创建数个r进行并行运算。

在该函数执行后就已经开始并行运算了,电脑可能会变卡一点。尤其在执行par开头的函数时。

在并行运算环境下,常用的一些计算方法如下:

1. clusterevalq(cl,expr)函数利用创建的cl执行expr

这里利用刚才创建的cl核并行运算expr。expr是执行命令的语句,不过如果命令太长的话,一般写到文件里比较好。比如把想执行的命令放在rcode.r里:

clusterevalq(cl,source(file="rcode.r"))

2.par开头的apply函数族

这族函数和apply的用法基本一样,不过要多加一个参数cl。一般如果cl创建如上面cl <- makecluster(cl.cores)的话,这个参数可以直接用作parapply(cl=cl,…)。

当然apply也可以是sapply,lapply等等。注意par后面的第一个字母是要大写的,而一般的apply函数族第一个字母不大写。另外要注意,即使构建了并行运算的核,不使用parapply()函数,而使用apply()函数的话,则仍然没有实现并行运算。

换句话说,makecluster只是创建了待用的核,而不是并行运算的环境。

最后,终止并行运算只需要一行命令

stopcluster(cl)

案例1

不使用并行计算,直接使用lapply(隐式循环函数,它实际就是对不同的数据应用了相同的函数):

fun <- function(x){return (x+1);}system.time({res <- lapply(1:5000000, fun);});user  system elapsed21.42    1.74   25.70

案例2

使用parallel包来加速

library(parallel)#打开四核,具体核数根据机器的核数决定cl <- makecluster(getoption("cl.cores", 4));system.time({res <- parlapply(cl, 1:5000000,  fun)});user system elapsed6.54 0.34 19.95#关闭并行计算stopcluster(cl);

看看单核机器跑出来的结果:

user  system elapsed29.30    9.23   97.22

所以,并非核数越多越好,看机器配置。

这个函数有两点要注意:

首先要先用detectcores函数确定系统核心数目,对于window系统下的intel i5或i7 处理器,一般使用detectcores(logical = f)来获得实际的物理核心数量。

由于这个函数使用的是调用rscript的方式,这个例子里,对象被复制了三份,因此内存会吃的很厉害,在大数据条件就要小心使用。

案例3

在linux下使用mclapply函数的效果如下:

mc <- getoption("mc.cores", 3)system.time({res <- mclapply(1:5000000, fun, mc.cores = mc);});user system elapsed6.657 0.500 7.181 stopcluster(cl);

补充:r语言如何并行处理[parallel package][向量化操作并行优化]

使用数据,长下面这样:

方法:

使用parallel包,并行向量化处理,进一步提升原先向量化处理速度。

原始代码:

start <- sys.time()experiment_step1 <- apply(dtc_small_modify, 1, decompose)end <- sys.time()print(end-start)

原始运行时间:3.083114 分

使用parallel包后

library(parallel) #并行处理包cl.cores <- detectcores(logical = f) #计算电脑核心数cl <- makecluster(cl.cores) # 初始化要使用的核心数start <- sys.time()results <- parapply(cl=cl, dtc_small_modify, 1, decompose) # apply的并行版本stopcluster(cl) # 关闭并行模式end <- sys.time()print(end-start)

并行后

运行时间:55.5877 秒,相较原先,速度提升了将近四倍!

tips:上述是对向量化(vectorization)apply类的并行处理。对于apply的并行处理,必须使用par开头的对应apply.

列表如下:

parlapply(cl = null, x, fun, …, chunk.size = null) parsapply(cl = null, x, fun, …, simplify = true, use.names = true, chunk.size = null) parapply(cl = null, x, margin, fun, …, chunk.size = null) parrapply(cl = null, x, fun, …, chunk.size = null) parcapply(cl = null, x, fun, …, chunk.size = null) parlapplylb(cl = null, x, fun, …, chunk.size = null) parsapplylb(cl = null, x, fun, …, simplify = true, use.names = true, chunk.size = null)

使用apply类向量化操作后,常常产生大规模列表,可能需要将列表转成一个完整的大数据框。

以上为个人经验,希望能给大家一个参考,也希望大家多多支持www.887551.com。如有错误或未考虑完全的地方,望不吝赐教。