共计 1623 个字符,预计需要花费 5 分钟才能阅读完成。
这篇文章给大家分享的是有关 Ubuntu 9.04 下如何实现 CUDA 编程的内容。丸趣 TV 小编觉得挺实用的,因此分享给大家做个参考,一起跟随丸趣 TV 小编过来看看吧。
CUDA SDK 的实例都在 src 目录下,每一个实例都有一个自己的目录, 例如 deviceuery,在它的目录下还有一个编译时候使用的 Makefile 文件,这是编译单个项目的。现在我们将所有实例都编译一遍,在 CUDA_SDK 根目录下运行 sudo make 之后,可以在 /bin/linux/release 下看到编译之后的可执行程序,运行即可看到结果。
这是 deviceQuery 的运行结果:
那么到这里相信读者应该想到了我们完全可以利用这些实例来创建我们自己的工程。再实例中有一个 template,将该目录下 src 中的.cu、.cpp 文件删除,将 obj 目录下的内容清空,这就成为一个空的 CUDA 工程,可以再 src 下编写程序,然后在 Makefie 中将编译的文件名修改正确,编译即可。所生成的执行文件在 CUDA_SDK_HOME/bin/linux/release 下。这里是一个测试代码,执行矩阵加法运算的:
1 #include
2 #include
3 #include
4 #include
5 #include
6
7 #define VEC_SIZE 16
8
9 //kernel function
10 __global__ void vecAdd(float* d_A,float* d_B,float* d_C)
11 {
12 int index=threadIdx.x;
13 d_C[index]=d_A[index]+d_B[index];
14 }
15
16 int main()
17 {
18 // 得到分配空间的大小
19 size_t size=VEC_SIZE*sizeof(float);
20
21 // 为本地分配内存
22 float* h_A=(float*)malloc(size);
23 float* h_B=(float*)malloc(size);
24 float* h_C=(float*)malloc(size);
25
26 // 初始化
27 for (int i=0;i VEC_SIZE;++I) p
28 {
29 h_A[i]=1.0;
30 h_B[i]=2.0;
31 }
32
33 // 将本地内存的中的数据复制到设备中
34 float* d_A;
35 cudaMalloc((void**) d_A,size);
36 cudaMemcpy(d_A,h_A,size,cudaMemcpyHostToDevice);
37
38 float* d_B;
39 cudaMalloc((void**) d_B,size);
40 cudaMemcpy(d_B,h_B,size,cudaMemcpyHostToDevice);
41
42 // 分配存放结果的空间
43 float* d_C;
44 cudaMalloc((void**) d_C,size);
45
46 // 定义 16 个线程
47 dim3 dimblock(16);
48 vecAdd 1,dimblock (d_A,d_B,d_C);
49
50 // 讲计算结果复制回主存中
51 cudaMemcpy(h_C,d_C,size,cudaMemcpyDeviceToHost);
52
53 // 输出计算结果
54 for (int j=0;j VEC_SIZE;++J) p
55 {
56 printf(%f\t ,h_C[j]);
57 }
58
59 // 释放主机和设备内存
60 cudaFree(d_A);
61 cudaFree(d_B);
62 cudaFree(d_C);
63
64 free(h_A);
65 free(h_B);
66 free(h_C);
67
68 return 0;
69 }
感谢各位的阅读!关于“Ubuntu 9.04 下如何实现 CUDA 编程”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!