天天看点

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

文章目录

  • Linux内存管理
    • 虚拟内存
    • 虚拟地址
    • 虚拟地址的好处
    • 进程如何使用内存?
    • 进程如何组织这些区域?
    • 内核空间和用户空间
    • 进程内存空间
  • TCP为什么采用随机初始序列号
    • 初始序列号是什么?
    • TCP初始序列号为什么是随机的
  • 拥塞控制
  • TCP与UDP的区别
    • 什么时候选择TCP,什么时候选UDP?
    • HTTP可以使用UDP吗?
    • 面向连接和无连接的区别
    • TCP如何保证传输的可靠性
  • Linux事件管理
  • Linux磁盘
  • Linux进程调度
    • 进程的分类
    • 调度时刻
    • 进程上下文切换
  • 文件系统
    • 文件系统的基本组成
    • 目录项和目录是一个东西吗?
    • 那文件数据是如何存储在磁盘的呢?
  • 虚拟文件系统
  • 文件的使用
  • 文件 I/O
    • 缓冲与非缓冲 I/O
    • 直接与非直接 I/O
      • 如果用了非直接 I/O 进行写数据操作,内核什么情况下才会把缓存数据写入到磁盘?
    • 阻塞与非阻塞 I/O VS 同步与异步 I/O
  • Linux 的IO栈

接着分布式存储面试的学习,把Linux基础知识,内部的一些东西也都系统的学习一下

Linux内存管理

虚拟内存

也被称作“页面文件”,是一种逻辑上扩充物理内存的技术。简单的说就是将硬盘的一部分作为内存来使用。基本思想是用软、硬件技术把内存与外存这两级存储器当做一级存储器来用。虚拟内存技术的实现利用了自动覆盖和交换技术。

存在形式:PAGEFILE.SYS

虚拟地址

即使是现代操作系统中,内存依然是计算机中很宝贵的资源,看看你电脑几个T固态硬盘,再看看内存大小就知道了。

为了充分利用和管理系统内存资源,Linux采用虚拟内存管理技术,利用虚拟内存技术让每个进程都有4GB 互不干涉的虚拟地址空间。

进程初始化分配和操作的都是基于这个「虚拟地址」,只有当进程需要实际访问内存资源的时候才会建立虚拟地址和物理地址的映射,调入物理内存页。

打个不是很恰当的比方,这个原理其实和现在的某某网盘一样。假如你的网盘空间是1TB,真以为就一口气给了你这么大空间吗?那还是太年轻,都是在你往里面放东西的时候才给你分配空间,你放多少就分多少实际空间给你,但你和你朋友看起来就像大家都拥有1TB空间一样。

虚拟地址的好处

避免用户直接访问物理内存地址,防止一些破坏性操作,保护操作系统

每个进程都被分配了4GB的虚拟内存,用户程序可使用比实际物理内存更大的地址空间

4GB 的进程虚拟地址空间被分成两部分:「用户空间」和「内核空间」

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

进程如何使用内存?

毫无疑问,所有进程(执行的程序)都必须占用一定数量的内存,它或是用来存放从磁盘载入的程序代码,或是存放取自用户输入的数据等等。不过进程对这些内存的管理方式因内存用途不一而不尽相同,有些内存是事先静态分配和统一回收的,而有些却是按需要动态分配和回收的。

对任何一个普通进程来讲,它都会涉及到5种不同的数据段。稍有编程知识的朋友都能想到这几个数据段中包含有“程序代码段”、“程序数据段”、“程序堆栈段”等。不错,这几种数据段都在其中,但除了以上几种数据段之外,进程还另外包含两种数据段。下面我们来简单归纳一下进程对应的内存空间中所包含的5种不同的数据区。

  • 代码段:代码段是用来存放可执行文件的操作指令,也就是说是它是可执行程序在内存中的镜像。代码段需要防止在运行时被非法修改,所以只准许读取操作,而不允许写入(修改)操作——它是不可写的。
  • 数据段:数据段用来存放可执行文件中已初始化全局变量,换句话说就是存放程序静态分配[1]的变量和全局变量。
  • BSS段[2]:BSS段包含了程序中未初始化的全局变量,在内存中 bss段全部置零。
  • 堆(heap):堆是用于存放进程运行中被动态分配的内存段,它的大小并不固定,可动态扩张或缩减。当进程调用malloc等函数分配内存时,新分配的内存就被动态添加到堆上(堆被扩张);当利用free等函数释放内存时,被释放的内存从堆中被剔除(堆被缩减)
  • 栈:栈是用户存放程序临时创建的局部变量,也就是说我们函数括弧“{}”中定义的变量(但不包括static声明的变量,static意味着在数据段中存放变量)。除此以外,在函数被调用时,其参数也会被压入发起调用的进程栈中,并且待到调用结束后,函数的返回值也会被存放回栈中。由于栈的先进后出特点,所以栈特别方便用来保存/恢复调用现场。从这个意义上讲,我们可以把堆栈看成一个寄存、交换临时数据的内存区。

进程如何组织这些区域?

上述几种内存区域中数据段、BSS和堆通常是被连续存储的——内存位置上是连续的,而代码段和栈往往会被独立存放。

有趣的是,堆和栈两个区域关系很“暧昧”,他们一个向下“长”(i386体系结构中栈向下、堆向上),一个向上“长”,相对而生。

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

从用户向内核看,所使用的内存表象形式会依次经历**“逻辑地址”——“线性地址”——“物理地址”**几种形式。

逻辑地址经段机制转化成线性地址;线性地址又经过页机制转化为物理地址。(但是我们要知道Linux系统虽然保留了段机制,但是将所有程序的段地址都定死为0-4G,所以虽然逻辑地址和线性地址是两种不同的地址空间,但在Linux中逻辑地址就等于线性地址,它们的值是一样的)。沿着这条线索,我们所研究的主要问题也就集中在下面几个问题。

  1. 进程空间地址如何管理?
               
  2. 进程地址如何映射到物理内存?
               
  3. 物理内存如何被管理?
               

以及由上述问题引发的一些子问题。如系统虚拟地址分布;内存分配接口;连续内存分配与非连续内存分配等。

内核空间和用户空间

Linux的虚拟地址空间范围为0~4G,Linux内核将这4G字节的空间分为两部分, 将最高的1G字节(从虚拟地址0xC0000000到0xFFFFFFFF)供内核使用,称为“内核空间”。而将较低的3G字节(从虚拟地址0x00000000到0xBFFFFFFF)供各个进程使用,称为“用户空间。因为每个进程可以通过系统调用进入内核,因此,Linux内核由系统内的所有进程共享。于是,从具体进程的角度来看,每个进程可以拥有4G字节的虚拟空间。

内核空间中存放的是内核代码和数据,而进程的用户空间中存放的是用户程序的代码和数据。不管是内核空间还是用户空间,它们都处于虚拟空间中。

虽然内核空间占据了每个虚拟空间中的最高1GB字节,但映射到物理内存却总是从最低地址(0x00000000),另外, 使用虚拟地址可以很好的保护 内核空间被用户空间破坏,虚拟地址到物理地址转换过程有操作系统和CPU共同完成(操作系统为CPU设置好页表,CPU通过MMU单元进行地址转换)。

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

注:多任务操作系统中的每一个进程都运行在一个属于它自己的内存沙盒中,这个 沙盒就是虚拟地址空间(virtual address space),在32位模式下,它总是一个4GB的内存地址块。这些虚拟地址通过页表(page table)映射到物理内存,页表由操作系统维护并被处理器引用。每个进程都拥有一套属于它自己的页表。

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

通常32位Linux内核地址空间划分03G为用户空间,34G为内核空间

注: 1.这里是32位内核地址空间划分,64位内核地址空间划分是不同的

进程内存空间

Linux操作系统采用虚拟内存管理技术,使得每个进程都有各自互不干涉的进程地址空间。该空间是块大小为4G的线性虚拟空间,用户所看到和接触到的都是该虚拟地址,无法看到实际的物理内存地址。利用这种虚拟地址不但能起到保护操作系统的效果(用户不能直接访问物理内存),而且更重要的是,用户程序可使用比实际物理内存更大的地址空间(具体的原因请看硬件基础部分)。

slabtop 实时显示内核 slab 内存缓存信息

TCP为什么采用随机初始序列号

初始序列号是什么?

TCP连接的一方A,随机选择一个32位的序列号(Sequence Number)作为发送数据的初始序列号(Initial Sequence Number,ISN),比如为1000,以该序列号为原点,对要传送的数据进行编号:1001、1002…三次握手时,把这个初始序列号传送给另一方B,以便在传输数据时,B可以确认什么样的数据编号是合法的;同时在进行数据传输时,A还可以确认B收到的每一个字节,如果A收到了B的确认编号(acknowledge number)是2001,就说明编号为1001-2000的数据已经被B成功接受。

  1. TCP发送端和接收端都拥有32位的序列号,用来控制每次发送的数据包是否接受。当发送端发送数据包时,数据包中会包含一个序列号,接收端接收到时,会返回发送端序列号,用来通知接收数据接受完毕
  2. TCP三次握手中,每端都会拥有一个标志位或者1bit位的布尔域控制连接状态

TCP初始序列号为什么是随机的

在TCP的三次握手中,采用随机产生的初始化序列号进行请求,这样做主要是出于网络安全的因素着想。如果不是随机产生初始序列号,黑客将会以很容易的方式获取到你与其他主机之间通信的初始化序列号,并且伪造序列号进行攻击,这已经成为一种很常见的网络攻击手段。

拥塞控制

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

拥塞控制主要由四个算法组成:慢启动(Slow Start)、拥塞避免(Congestion voidance)、快重传 (Fast Retransmit)、快恢复(Fast Recovery)

  • 慢启动:刚开始发送数据时,先把拥塞窗口(congestion window)设置为一个最大报文段MSS的数值,每收到一个新的确认报文之后,就把拥塞窗口加1个MSS。这样每经过一个传输轮次(或者说是每经过一个往返时间RTT),拥塞窗口的大小就会加倍
分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈
  • 拥塞避免:当拥塞窗口的大小达到慢开始门限(slow start threshold)时,开始执行拥塞避免算法,拥塞窗口大小不再指数增加,而是线性增加,即每经过一个传输轮次只增加1MSS.

    无论在慢开始阶段还是在拥塞避免阶段,只要发送方判断网络出现拥塞(其根据就是没有收到确认),就要把慢开始门限ssthresh设置为出现拥塞时的发送方窗口值的一半(但不能小于2)。然后把拥塞窗口cwnd重新设置为1,执行慢开始算法。 (这是不使用快重传的情况)

  • 快重传:快重传要求接收方在收到一个失序的报文段后就立即发出重复确认(为的是使发送方及早知道有报文段没有到达对方)而不要等到自己发送数据时捎带确认。快重传算法规定,发送方只要一连收到三个重复确认就应当立即重传对方尚未收到的报文段,而不必继续等待设置的重传计时器时间到期。
    分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈
  • 快恢复:当发送方连续收到三个重复确认时,就把慢开始门限减半,然后执行拥塞避免算法。不执行慢开始算法的原因:因为如果网络出现拥塞的话就不会收到好几个重复的确认,所以发送方认为现在网络可能没有出现拥塞。 也有的快重传是把开始时的拥塞窗口cwnd值再增大一点,即等于 ssthresh + 3*MSS 。这样做的理由是:既然发送方收到三个重复的确认,就表明有三个分组已经离开了网络。这三个分组不再消耗网络的资源而是停留在接收方的缓存中。可见现在网络中减少了三个分组。因此可以适当把拥塞窗口扩大些。

TCP与UDP的区别

  • TCP是面向连接的,UDP是无连接的;(UDP发送数据之前不需要建立连接)
  • TCP是可靠的,UDP不可靠;(UDP接收方收到报文后,不需要给出任何确认)
  • TCP只支持点对点通信,UDP支持一对一、一对多、多对一、多对多;
  • TCP是面向字节流的,UDP是面向报文的;(面向字节流是指发送数据时以字节为单位,一个数据包可以拆分成若干组进行发送,而UDP一个报文只能一次发完。)
  • TCP有拥塞控制机制,UDP没有。网络出现的拥塞不会使源主机的发送速率降低,UDP对某些实时应用是很重要的,比如媒体通信,游戏;
  • TCP首部开销(20字节)比UDP首部开销(8字节)要大
  • UDP 的主机不需要维持复杂的连接状态表

什么时候选择TCP,什么时候选UDP?

对某些实时性要求比较高的情况,选择UDP,比如游戏,媒体通信,实时视频流(直播),即使出现传输错误也可以容忍;其它大部分情况下,HTTP都是用TCP,因为要求传输的内容可靠,不出现丢失

HTTP可以使用UDP吗?

HTTP不可以使用UDP,HTTP需要基于可靠的传输协议,而UDP不可靠

面向连接和无连接的区别

无连接的网络服务(数据报服务)-- 面向连接的网络服务(虚电路服务)

虚电路服务:首先建立连接,所有的数据包经过相同的路径,服务质量有较好的保证;

数据报服务:每个数据包含目的地址,数据路由相互独立(路径可能变化);网络尽最大努力交付数据,但不保证不丢失、不保证先后顺序、不保证在时限内交付;网络发生拥塞时,可能会将一些分组丢弃;

TCP如何保证传输的可靠性

  • 数据包校验
  • 对失序数据包重新排序(TCP报文具有序列号)
  • 丢弃重复数据
  • 应答机制:接收方收到数据之后,会发送一个确认(通常延迟几分之一秒);
  • 超时重发:发送方发出数据之后,启动一个定时器,超时未收到接收方的确认,则重新发送这个数据;
  • 流量控制:确保接收端能够接收发送方的数据而不会缓冲区溢出

Linux事件管理

在 Linux内核 2.6版本之后,有了 epoll,它的做法就不是这样了。

epoll在 Linux内核中申请了一个简易的文件系统。在进程中使用 epoll的时候,首先调用 epoll_create创建 epoll句柄,当需要对 TCP连接进行监控时,直接调用 epoll_ctl向 epoll句柄中添加这10万+个连接的套接字即可。然后调用 epoll_wait收集发生事件的连接。

这样,只需要在进程启动时建立1个 epoll句柄,并在需要的时候向它添加或删除连接就可以了,然后选择阻塞或者非阻塞的方式调用 epoll_wait,操作系统就会返回发生事件的连接。

说起来很简单,Linux内核将如何实现以上的想法呢?当某一个进程调用 epoll_create方法时,Linux内核会创建一个 eventpoll结构体,这个结构体中有两个成员与 epoll的使用方式密切相关,如下所示:

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

每一个 epoll对象都有一个独立的 eventpoll结构体,这个结构体会在内核空间中创造独立的内存,用于存储使用 epoll_ctl方法向 epoll对象中添加进来的事件。这些事件都会挂到 rbr红黑树中,这样,重复添加的事件就可以通过红黑树而高效地识别出来(epoll_ctl方法会很快)。

所有添加到 epoll中的事件都会与设备(如网卡)驱动程序建立回调关系,相应的事件发生时会调用这里的回调方法。这个回调方法在内核中叫做 ep_poll_callback,它会把这样的事件放到上面的rdllist双向链表中(从而用户调用 epoll_wait的时候直接检查 rdlink就可以了)。(Nginx代码与 Linux内核代码很相似,红黑树与双向链表基本一致)。在 epoll中,对于每一个事件都会建立一个 epitem结构体,如下所示:

epoll高效的原因:

当调用 epoll_wait检查是否有发生事件的连接时,只是检查 eventpoll对象中的 rdllist双向链表是否有 epitem元素而已,如果 rdllist链表不为空,则把这里的事件复制到用户态内存中,同时将事件数量返回给用户。因此,epoll_wait的效率非常高。epoll_ctl在向 epoll对象中添加、修改、删除事件时,从 rbr红黑树中查找事件也非常快,也就是说,epoll是非常高效的,它可以轻易地处理百万级别的并发连接。

epoll高效的本质:

1.减少用户态和内核态之间的文件句柄拷贝;

2.减少对可读可写文件句柄的遍历。

Linux磁盘

df
           
分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

Linux进程调度

进程的分类

在 CPU 的角度看进程行为的话,可以分为两类:

  • CPU 消耗型:此类进程就是一直占用 CPU 计算,CPU 利用率很高
  • IO 消耗型:此类进程会涉及到 IO,需要和用户交互,比如键盘输入,占用 CPU 不是很高,只需要 CPU 的一部分计算,大多数时间是在等待 IO

    CPU 消耗型进程需要高的吞吐率,IO 消耗型进程需要强的响应性,这两点都是调度器需要考虑的。

为了更快响应 IO 消耗型进程,内核提供了一个抢占(preempt)机制,使优先级更高的进程,去抢占优先级低的进程运行。内核用以下宏来选择内核是否打开抢占机制:

CONFIG_PREEMPT_NONE: 不打开抢占,主要是面向服务器。此配置下,CPU 在计算时,当输入键盘之后,因为没有抢占,可能需要一段时间等待键盘输入的进程才会被 CPU 调度。

CONFIG_PREEMPT : 打开抢占,一般多用于手机设备。此配置下,虽然会影响吞吐率,但可以及时响应用户的输入操作。

调度时刻

调度的本质就是选择下一个进程,然后切换。在执行调度之前需要设置调度标记 TIF_NEED_RESCHED,然后在调度的时候会判断当前进程有没有被设置 TIF_NEED_RESCHED,如果设置则调用函数 schedule 来进行调度。

进程上下文切换

理解了下一个进程的选择后,就需要做当前进程和所选进程的上下文切换。

Linux 内核用函数 context_switch 进行进程的上下文切换,进程上下文切换主要涉及到两部分:进程地址空间切换和处理器状态切换:

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

进程的地址空间切换

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

将下一个进程的 pgd 虚拟地址转化为物理地址存放在 ttbr0_el1 中(这是用户空间的页表基址寄存器),当访问用户空间地址的时候 mmu 会通过这个寄存器来做遍历页表获得物理地址。完成了这一步,也就完成了进程的地址空间切换,确切的说是进程的虚拟地址空间切换。

寄存器状态切换

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

其中 x19-x28 是 arm64 架构规定需要调用保存的寄存器,可以看到处理器状态切换的时候将前一个进程(prev)的 x19-x28,fp,sp,pc 保存到了进程描述符的 cpu_contex 中,然后将即将执行的进程 (next) 描述符的 cpu_contex 的 x19-x28,fp,sp,pc 恢复到相应寄存器中,而且将 next 进程的进程描述符 task_struct 地址存放在 sp_el0 中,用于通过 current 找到当前进程,这样就完成了处理器的状态切换

文件系统

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

文件系统的基本组成

文件系统是操作系统中负责管理持久数据的子系统,说简单点,就是负责把用户的文件存到磁盘硬件中,因为即使计算机断电了,磁盘里的数据并不会丢失,所以可以持久化的保存文件。

文件系统的基本数据单位是文件,它的目的是对磁盘上的文件进行组织管理,那组织的方式不同,就会形成不同的文件系统。

Linux 最经典的一句话是:「一切皆文件」,不仅普通的文件和目录,就连块设备、管道、socket 等,也都是统一交给文件系统管理的。

Linux 文件系统会为每个文件分配两个数据结构:索引节点(index node)和目录项(directory entry),它们主要用来记录文件的元信息和目录层次结构。

  • 索引节点,也就是 inode,用来记录文件的元信息,比如 inode 编号、文件大小、访问权限、创建时间、修改时间、数据在磁盘的位置等等。索引节点是文件的唯一标识,它们之间一一对应,也同样都会被存储在硬盘中,所以索引节点同样占用磁盘空间。
  • 目录项,也就是 dentry,用来记录文件的名字、索引节点指针以及与其他目录项的层级关联关系。多个目录项关联起来,就会形成目录结构,但它与索引节点不同的是,目录项是由内核维护的一个数据结构,不存放于磁盘,而是缓存在内存。

目录项和目录是一个东西吗?

虽然名字很相近,但是它们不是一个东西,目录是个文件,持久化存储在磁盘,而目录项是内核一个数据结构,缓存在内存。

如果查询目录频繁从磁盘读,效率会很低,所以内核会把已经读过的目录用目录项这个数据结构缓存在内存,下次再次读到相同的目录时,只需从内存读就可以,大大提高了文件系统的效率。

注意,目录项这个数据结构不只是表示目录,也是可以表示文件的。

那文件数据是如何存储在磁盘的呢?

磁盘读写的最小单位是扇区,扇区的大小只有 512B 大小,很明显,如果每次读写都以这么小为单位,那这读写的效率会非常低。

所以,文件系统把多个扇区组成了一个逻辑块,每次读写的最小单位就是逻辑块(数据块),Linux 中的逻辑块大小为 4KB,也就是一次性读写 8 个扇区,这将大大提高了磁盘的读写的效率。

以上就是索引节点、目录项以及文件数据的关系,下面这个图就很好的展示了它们之间的关系:

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

索引节点是存储在硬盘上的数据,那么为了加速文件的访问,通常会把索引节点加载到内存中。

另外,磁盘进行格式化的时候,会被分成三个存储区域,分别是超级块、索引节点区和数据块区。 - 超级块,用来存储文件系统的详细信息,比如块个数、块大小、空闲块等等。 - 索引节点区,用来存储索引节点; - 数据块区,用来存储文件或目录数据;

我们不可能把超级块和索引节点区全部加载到内存,这样内存肯定撑不住,所以只有当需要使用的时候,才将其加载进内存,它们加载进内存的时机是不同的:

超级块:当文件系统挂载时进入内存;

索引节点区:当文件被访问时进入内存;

虚拟文件系统

文件系统的种类众多,而操作系统希望对用户提供一个统一的接口,于是在用户层与文件系统层引入了中间层,这个中间层就称为虚拟文件系统(Virtual File System,VFS)。

VFS 定义了一组所有文件系统都支持的数据结构和标准接口,这样程序员不需要了解文件系统的工作原理,只需要了解 VFS 提供的统一接口即可。

在 Linux 文件系统中,用户空间、系统调用、虚拟机文件系统、缓存、文件系统以及存储之间的关系如下图:

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

Linux 支持的文件系统也不少,根据存储位置的不同,可以把文件系统分为三类:

  • 磁盘的文件系统,它是直接把数据存储在磁盘中,比如 Ext 2/3/4、XFS 等都是这类文件系统。
  • 内存的文件系统,这类文件系统的数据不是存储在硬盘的,而是占用内存空间,我们经常用到的

    /proc

    /sys

    文件系统都属于这一类,读写这类文件,实际上是读写内核中相关的数据数据。
  • 网络的文件系统,用来访问其他计算机主机数据的文件系统,比如 NFS、SMB 等等。

文件系统首先要先挂载到某个目录才可以正常使用,比如 Linux 系统在启动时,会把文件系统挂载到根目录。

文件的使用

我们从用户角度来看文件的话,就是我们要怎么使用文件?首先,我们得通过系统调用来打开一个文件。

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈
fd = open(name, flag); # 打开文件
  . . .
write(fd,...);         # 写数据
 . . .
close(fd);             # 关闭文件```

           

上面简单的代码是读取一个文件的过程: - 首先用 open 系统调用打开文件,open 的参数中包含文件的路径名和文件名。 - 使用 write 写数据,其中 write 使用 open 所返回的文件描述符,并不使用文件名作为参数。 - 使用完文件后,要用 close 系统调用关闭文件,避免资源的泄露。

我们打开了一个文件后,操作系统会跟踪进程打开的所有文件,所谓的跟踪呢,就是操作系统为每个进程维护一个打开文件表,文件表里的每一项代表「文件描述符」,所以说文件描述符是打开文件的标识。

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

操作系统在打开文件表中维护着打开文件的状态和信息: - 文件指针:系统跟踪上次读写位置作为当前文件位置指针,这种指针对打开文件的某个进程来说是唯一的; - 文件打开计数器:文件关闭时,操作系统必须重用其打开文件表条目,否则表内空间不够用。因为多个进程可能打开同一个文件,所以系统在删除打开文件条目之前,必须等待最后一个进程关闭文件,该计数器跟踪打开和关闭的数量,当该计数为 0 时,系统关闭文件,删除该条目; - 文件磁盘位置:绝大多数文件操作都要求系统修改文件数据,该信息保存在内存中,以免每个操作都从磁盘中读取; - 访问权限:每个进程打开文件都需要有一个访问模式(创建、只读、读写、添加等),该信息保存在进程的打开文件表中,以便操作系统能允许或拒绝之后的 I/O 请求;

在用户视角里,文件就是一个持久化的数据结构,但操作系统并不会关心你想存在磁盘上的任何的数据结构,操作系统的视角是如何把文件数据和磁盘块对应起来。

所以,用户和操作系统对文件的读写操作是有差异的,用户习惯以字节的方式读写文件,而操作系统则是以数据块来读写文件,那屏蔽掉这种差异的工作就是文件系统了。

文件 I/O

文件的读写方式各有千秋,对于文件的 I/O 分类也非常多,常见的有

缓冲与非缓冲 I/O

直接与非直接 I/O

阻塞与非阻塞 I/O VS 同步与异步 I/O

接下来,分别对这些分类讨论讨论。

缓冲与非缓冲 I/O

文件操作的标准库是可以实现数据的缓存,那么根据「是否利用标准库缓冲」,可以把文件 I/O 分为缓冲 I/O 和非缓冲 I/O:

  • 缓冲 I/O,利用的是标准库的缓存实现文件的加速访问,而标准库再通过系统调用访问文件。
  • 非缓冲 I/O,直接通过系统调用访问文件,不经过标准库缓存。

这里所说的「缓冲」特指标准库内部实现的缓冲。

比方说,很多程序遇到换行时才真正输出,而换行前的内容,其实就是被标准库暂时缓存了起来,这样做的目的是,减少系统调用的次数,毕竟系统调用是有 CPU 上下文切换的开销的。

直接与非直接 I/O

我们都知道磁盘 I/O 是非常慢的,所以 Linux 内核为了减少磁盘 I/O 次数,在系统调用后,会把用户数据拷贝到内核中缓存起来,这个内核缓存空间也就是「页缓存」,只有当缓存满足某些条件的时候,才发起磁盘 I/O 的请求。

那么,根据是「否利用操作系统的缓存」,可以把文件 I/O 分为直接 I/O 与非直接 I/O:

  • 直接 I/O,不会发生内核缓存和用户程序之间数据复制,而是直接经过文件系统访问磁盘。
  • 非直接 I/O,读操作时,数据从内核缓存中拷贝给用户程序,写操作时,数据从用户程序拷贝给内核缓存,再由内核决定什么时候写入数据到磁盘。

如果你在使用文件操作类的系统调用函数时,指定了 O_DIRECT 标志,则表示使用直接 I/O。如果没有设置过,默认使用的是非直接 I/O。

如果用了非直接 I/O 进行写数据操作,内核什么情况下才会把缓存数据写入到磁盘?

以下几种场景会触发内核缓存的数据写入磁盘: - 在调用 write 的最后,当发现内核缓存的数据太多的时候,内核会把数据写到磁盘上; - 用户主动调用 sync,内核缓存会刷到磁盘上; - 当内存十分紧张,无法再分配页面时,也会把内核缓存的数据刷到磁盘上; - 内核缓存的数据的缓存时间超过某个时间时,也会把数据刷到磁盘上;

阻塞与非阻塞 I/O VS 同步与异步 I/O

为什么把阻塞 / 非阻塞与同步与异步放一起说的呢?因为它们确实非常相似,也非常容易混淆,不过它们之间的关系还是有点微妙的。

先来看看阻塞 I/O,当用户程序执行 read ,线程会被阻塞,一直等到内核数据准备好,并把数据从内核缓冲区拷贝到应用程序的缓冲区中,当拷贝过程完成,read 才会返回。

注意,阻塞等待的是「内核数据准备好」和「数据从内核态拷贝到用户态」这两个过程。过程如下图:

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

知道了阻塞 I/O ,来看看非阻塞 I/O,非阻塞的 read 请求在数据未准备好的情况下立即返回,可以继续往下执行,此时应用程序不断轮询内核,直到数据准备好,内核将数据拷贝到应用程序缓冲区,read 调用才可以获取到结果。过程如下图:

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

注意,这里最后一次 read 调用,获取数据的过程,是一个同步的过程,是需要等待的过程。这里的同步指的是内核态的数据拷贝到用户程序的缓存区这个过程。

Linux 的IO栈

分布式存储 基础知识储备学习Linux内存管理TCP为什么采用随机初始序列号拥塞控制TCP与UDP的区别Linux事件管理Linux磁盘Linux进程调度文件系统虚拟文件系统文件的使用文件 I/OLinux 的IO栈

应用程序:

这没什么好说的,通过相关系统调用(如open/read/write)发起IO请求,属于IO请求的源头;

文件系统:

应用程序的请求直接到达文件系统层。文件系统又分为VFS和具体文件系统(ext3、ext4等),VFS对应用层提供统一的访问接口,而ext3等文件系统则具体实现了这些接口。另外,为了提供IO性能,在该层还实现了诸如page cache等功能。同时,用户也可以选择绕过page cache,而是直接使用direct模式进行IO(如数据库)。

块设备层:

文件系统将IO请求打包提交给块设备层,该层会对这些IO请求作合并、排序、调度等,然后以新的格式发往更底层。在该层次上实现了多种电梯调度算法,如cfq、deadline等。

SCSI层:

块设备层将请求发往SCSI层,SCSI就开始真实处理这些IO请求,但是SCSI层又对其内部按照功能划分了不同层次:

  • SCSI高层:高层驱动负责管理disk,接收块设备层发出的IO请求,打包成SCSI层可识别的命令格式,继续往下发;
  • SCSI中层:中层负责通用功能,如错误处理,超时重试等;
  • SCSI低层:底层负责识别物理设备,将其抽象提供给高层,同时接收高层派发的scsi命令,交给物理设备处理。

继续阅读