来源(ChinaUnix.net)

From: http://bbs.chinaunix.net/viewthread.php?tid=737308

我们总希望能在内核空间和用户空间自由交换数据,传统的方式是采用内核提供的vma机制,通过copy_to/from_user之类的方法来实现。这对于高速数据块传送是不可取的。

其实kswapd有时交换数据至外存时,性能相当差,一般而言,你的PC主存并不见得就用尽了,而且很多应用并是你所关心的,但却实实在在消耗你的计算资源,此时,你可能会想到采用实地址操作你的应用(尽管有MMU的支持),在uClinux中,当没有MMU时,工作起来是挺爽的。

最方便的,最高效的,无非是实地址下,操作物理内存,相当于DMA。尽管Linux 2.6内核在VMA方面的性能要优于2.4,但swap机制有一定的缺限。在VxWorks中,对内存的管理是很细致且精确的。如果你在Linux下申请大块内存操作时,当触发kswap快速交换回主存时,你会发现你的计算机哪一段时间,几乎要休息几分钟,尽管你看起来free输出的頁面已经很多了,但此时的外存几乎一直忙着,且CPU负荷相当重,这时也可能你根本就没做任何操作。

有没有办法既在VMA机制下工作,又能直接处理主存数据呢?

回答是肯定的:

内核启动后,会将主存映射为/dev/mem,当我们在VMA中申请一块逻辑区间后,将转换的物理地址传与用户空间,用户空间就可以线性操作这段区间了,直接采用mmap就可以在物理主存中读写。

还有更快的方式吗?不采用mmap行吗?

当然有,当VMA将物理区块地址及大小传与用户空间后,用户完全可以采用地址读写模式,这几近于机器指令操作了。(可以独立于OS之外)

此种实现方式很简单,首先打开/dev/mem,直接定位至VMA传上来的地址就可以操作了,无需mmap。通知用户空间,可以采用procfs/sysfs等。

强烈建议:在边界控制上,一定要精确细致,不推荐初学者采用,一旦越界,可能引起“Kernel Panic”

更有可能就DOWN了。

对于此实现方式,建议参考mapper(LDD3)程序。

同时,也可以用mapper检查读写是否正确。

新的IA32中,PAGE_SIZE = 4K

MAX_ORDER = 11

gfp最大申请4M线性逻辑空间,减去PAGE_OFFSET即可得到物理地址。

如果采用了HIMEM和NUMA,请参见Kernel关于内存映射的算法。

当主存达到1G或超过时,请减小用户空间大小。

随着硬件技术的发展,VMA在主存相当大时,可以考虑进行修正,完全可以集中采用物理映射方式。没必要交换了。否则,反而影响性能。

32位平台,如果主存2G,采用SWAP会使得性能有较大下降。

而在大容量数据传输时,也不可能采用SWAP方式的,不允许换出。

建议Linus在VMA中加入进程分类,不平类别的应用,分配不同的内存块。

小数据PAGE_SIZE = 4K/大数据4M/128M

地址模式全转换为64位,兼容32位,当应用于Embedded系统时,直接使用32位模式。

如将做成多个微系统,不同微核,运行不同应用(不同的进程管理,内存管理,文件管理),只是接口可以统一,不同标志而已。

Link: http://www.asm32.net/article_details.aspx?id=452