admin 管理员组文章数量: 887021
2024年3月8日发(作者:alist)
virtio-net数据包的收发
virtio设备创建
vring的创建流程
Ring的内存分布
发送
接收
virtio设备创建
在virtio设备创建过程中,形成的数据结构如图所示:
从图中可以看出,virtio-netdev关联了两个virtqueue,包括一个send queue和一个receive queue,而具体的queue的实现由vring来承载。
针对 virtqueue 的操作包括:
int virtqueue_add_buf( struct virtqueue *_vq, struct scatterlist sg[], unsigned int out, unsigned int in, void *data, gfp_t gfp)
add_buf()用于向queue中添加一个新的buffer,参数data是一个非空的令牌,用于识别 buffer,当buffer内容被消耗后,data会返回。
virtqueue_kick()
Guest 通知 host 单个或者多个 buffer 已经添加到 queue 中,调用 virtqueue_notify(),notify 函数会向 queue
notify(VIRTIO_PCI_QUEUE_NOTIFY)寄存器写入 queue index 来通知 host。
void *virtqueue_get_buf(struct virtqueue *_vq, unsigned int *len)
返回使用过的buffer,len为写入到buffer中数据的长度。获取数据,释放buffer,更新vring描述符表格中的index。
virtqueue_disable_cb()
Guest不再需要知道一个buffer已经使用了,也就是关闭device的中断。驱动会在初始化时注册一个回调函数,disable_cb()
通常在这个virtqueue回调函数中使用,用于关闭再次的回调函数调用。
virtqueue_enable_cb()
与 disable_cb()刚好相反,用于重新开启设备中断的上报。
vring的创建流程
在virtio_net dev driver被加载后,会调用virtnet_probe进行设备的识别,创建,初始化。
static struct virtio_driver virtio_net_driver = {
.feature_table = features,
.feature_table_size = ARRAY_SIZE(features),
. = KBUILD_MODNAME,
. = THIS_MODULE,
.id_table = id_table,
.probe = virtnet_probe, <------------识别,初始化入口
.remove = virtnet_remove,
.config_changed = virtnet_config_changed,
#ifdef CONFIG_PM_SLEEP
.freeze = virtnet_freeze,
.restore = virtnet_restore,
#endif
};
其中进行了virtio net device的属性功能的配置,网络设备的初始化和注册,而vring的创建也在其中:
/* Allocate/initialize the rx/tx queues, and invoke find_vqs */
init_vqs(vi); //创建和初始化发送/接收队列
--->virtnet_alloc_queues()
--->virtnet_find_vqs()
virtnet_alloc_queues创建了图中virtnet_info中的send_queue 和 receive_queue结构,seng和receive queue是成对出现的。
static int virtnet_alloc_queues(struct virtnet_info *vi)
{
int i;
vi->sq = kzalloc(sizeof(*vi->sq) * vi->max_queue_pairs, GFP_KERNEL);
if (!vi->sq)
goto err_sq;
vi->rq = kzalloc(sizeof(*vi->rq) * vi->max_queue_pairs, GFP_KERNEL);
if (!vi->rq)
goto err_rq;
INIT_DELAYED_WORK(&vi->refill, refill_work);
for (i = 0; i < vi->max_queue_pairs; i++) {
vi->rq[i].pages = NULL;
netif_napi_add(vi->dev, &vi->rq[i].napi, virtnet_poll, napi_weight);
sg_init_table(vi->rq[i].sg, ARRAY_SIZE(vi->rq[i].sg)); //初始化收端的scatterlist
sg_init_table(vi->sq[i].sg, ARRAY_SIZE(vi->sq[i].sg)); //初始化发端的scatterlist
}
return 0;
err_rq:
kfree(vi->sq);
err_sq:
return -ENOMEM;
}
scatterlist即是一种数组形式的数据结构,每一项成员指向一个page的地址,偏移量,长度等。
通过find vqs来创建vring:
static int virtnet_find_vqs(struct virtnet_info *vi)
{
......
vi->vdev->config->find_vqs(vi->vdev, total_vqs, vqs, callbacks, names); //vp_find_vqs -> vp_try_to_find_vqs->setup_vq
......
}
vdev所对应的config的初始化在pci bus probe阶段:
static int virtio_pci_probe(struct pci_dev *pci_dev, const struct pci_device_id *id)
{
......
vp_dev-> = &virtio_pci_config_ops;
......
}
virtio_pci_config_ops是针对virtio设备配置的操作方法,主要包括四个部分:
1. 读写特征位;2. 读写配置空间;3. 读写状态位;4. 重启设备.
static const struct virtio_config_ops virtio_pci_config_ops = {
.get = vp_get, //读取virtio配置空间的域
.set = vp_set, //设置virtio配置空间的域
.get_status = vp_get_status, //读取状态位
.set_status = vp_set_status, //设置状态位
.reset = vp_reset, //设备的复位
.find_vqs = vp_find_vqs, //virtqueue的创建
.del_vqs = vp_del_vqs, //virtqueue的删除
.get_features = vp_get_features,
.finalize_features = vp_finalize_features,
.bus_name = vp_bus_name,
.set_vq_affinity = vp_set_vq_affinity,
};
其中最核心的是setup_vq():
/*
函数功能:为目标设备获取一个queue
vdev:目标设备
index:给目标设备使用的queue的编号
callback:queue的回调函数
name:queue的名字
msix_vec:给queue使用的msix vector的编号
*/
static struct virtqueue *setup_vq(struct virtio_device *vdev, unsigned index,
void (*callback)(struct virtqueue *vq),
const char *name,
u16 msix_vec)
{
//通过VIRTIO_PCI_QUEUE_SEL配置域,选择我们需要的queue的编号index
iowrite16(index, vp_dev->ioaddr + VIRTIO_PCI_QUEUE_SEL); //virtio_ioport_write
//#define VIRTQUEUE_MAX_SIZE 1024
//通过读取VIRTIO_PCI_QUEUE_NUM配置域,获取index编号的queue的大小
num = ioread16(vp_dev->ioaddr + VIRTIO_PCI_QUEUE_NUM);
//qemu端决定queue的大小, virtio_queue_set_num
/* 如果num为0,则该queue不可用
通过读取VIRTIO_PCI_QUEUE_PFN配置域返回queue的地址,
如果该queue的地址非空,则说明已经在被使用了,该queue不可用。
*/
if (!num || ioread32(vp_dev->ioaddr + VIRTIO_PCI_QUEUE_PFN))
return ERR_PTR(-ENOENT);
info = kmalloc(sizeof(struct virtio_pci_vq_info), GFP_KERNEL);
//计算vring所需要的空间大小
size = PAGE_ALIGN(vring_size(num, VIRTIO_PCI_VRING_ALIGN));
//分配size大小的若干个page空间为vring所用
info->queue = alloc_pages_exact(size, GFP_KERNEL|__GFP_ZERO);
/* activate the queue
通过VIRTIO_PCI_QUEUE_PFN配置域将vring的地址通告给qemu,
这样index编号的queue有大小,有空间qemu通过该块vring的
共享空间与guest进行数据的交互
*/
iowrite32(virt_to_phys(info->queue) >> VIRTIO_PCI_QUEUE_ADDR_SHIFT,
vp_dev->ioaddr + VIRTIO_PCI_QUEUE_PFN); //qemu: virtio_queue_set_addr->virtqueue_init
/* create the vring */
//对vring内部结构进行具体的初始化
vq = vring_new_virtqueue(index, info->num, VIRTIO_PCI_VRING_ALIGN, vdev,
true, info->queue, vp_notify, callback, name);
}
关于num的初始值,在qemu初始化virtionet设备时进行了初始化,queue size 即kernel中读取的num初始化为256个(file:hw/virtio-net.c, line:1597):
static void virtio_net_device_realize(DeviceState *dev, Error **errp)
{
VirtIODevice *vdev = VIRTIO_DEVICE(dev);
VirtIONet *n = VIRTIO_NET(dev);
NetClientState *nc;
int i;
virtio_init(vdev, "virtio-net", VIRTIO_ID_NET, n->config_size);
n->max_queues = MAX(n->nic_, 1);
n->vqs = g_malloc0(sizeof(VirtIONetQueue) * n->max_queues);
n->vqs[0].rx_vq = virtio_add_queue(vdev, 256, virtio_net_handle_rx); <------------收包队列默认256个
......
n->vqs[0].tx_vq = virtio_add_queue(vdev, 256, <------------发包队列默认256个
virtio_net_handle_tx_bh);
......
n->ctrl_vq = virtio_add_queue(vdev, 64, virtio_net_handle_ctrl); <------------控制队列默认64个
......
}
virtio_ring的具体结构包含3部分:
描述符数组(descriptor table)用于存储一些关联的描述符,每个描述符都是一个对buffer的描述,包含一个 address/length的配对。
可用的ring(available ring)用于Guest端表示那些描述符链当前是可用的。
使用过的ring(used ring)用于Host端表示那些描述符已经使用。
driver(guest)提供 buffers 给设备,处理 device(host)使用过的 buffers。
Ring的数目必须是2的次幂。结构如下图所示:
vring descriptor 用于指向 guest 使用的 buffer。
addr:guest 物理地址
len:buffer 的长度
flags:flags 的值含义包括:
VRING_DESC_F_NEXT:用于表明当前 buffer 的下一个域是否有效,也间接表明当前 buffer 是否是 buffers list 的最后一个。
VRING_DESC_F_WRITE:当前 buffer 是 read-only 还是 write-only,可写表示这个desc是在收包时,host端填充收包数据用的。
VRING_DESC_F_INDIRECT:表明这个 buffer 中包含一个 buffer 描述符的 list
next:所有的 buffers 通过next串联起来组成descriptor table
多个buffer组成一个list由descriptor table指向这些list。
Available ring 指向 guest 提供给设备的描述符,它指向一个 descriptor 链表的头。
Used ring 指向 device(host)使用过的 buffers。
Ring的内存分布
/* The standard layout for the ring is a continuous chunk of memory which looks
* like this. We assume num is a power of 2.
*
* struct vring
* {
* // The actual descriptors (16 bytes each)
* struct vring_desc desc[num];
*
* // A ring of available descriptor heads with free-running index.
* __u16 avail_flags;
* __u16 avail_idx;
* __u16 available[num];
* __u16 used_event_idx; //guest端写,
*
* // Padding to the next align boundary.
* char pad[];
*
* // A ring of used descriptor heads with free-running index.
* __u16 used_flags;
* __u16 used_idx;
* struct vring_used_elem used[num];
* __u16 avail_event_idx; //qemu端写, virtio_net_tx_bh->virtio_queue_set_notification(q->tx_vq, 1);
* };
*/
/* We publish the used event index at the end of the available ring, and vice
* versa. They are at the end for backwards compatibility. */
#define vring_used_event(vr) ((vr)->avail->ring[(vr)->num])
#define vring_avail_event(vr) (*(__u16 *)&(vr)->used->ring[(vr)->num])
发送
Guest端:
当Kernel中的网络数据包从内核协议栈下来后,必然要走到设备注册的发送函数, virtio_net 网卡驱动注册的的发送函数为start_xmit。
static const struct net_device_ops virtnet_netdev = {
.ndo_open = virtnet_open,
.ndo_stop = virtnet_close,
.ndo_start_xmit = start_xmit, <-------------------- 发包函数
.ndo_validate_addr = eth_validate_addr,
.ndo_set_mac_address = virtnet_set_mac_address,
.ndo_set_rx_mode = virtnet_set_rx_mode,
.ndo_change_mtu = virtnet_change_mtu,
.ndo_get_stats64 = virtnet_stats,
.ndo_vlan_rx_add_vid = virtnet_vlan_rx_add_vid,
.ndo_vlan_rx_kill_vid = virtnet_vlan_rx_kill_vid,
.ndo_select_queue = virtnet_select_queue,
#ifdef CONFIG_NET_POLL_CONTROLLER
.ndo_poll_controller = virtnet_netpoll,
#endif
};
static netdev_tx_t start_xmit(struct sk_buff *skb, struct net_device *dev)
{
......
/* Free up any pending old buffers before queueing new ones. */
free_old_xmit_skbs(sq); <----------------释放qemu端消化掉的desc
/* Try to transmit */
err = xmit_skb(sq, skb);
......
virtqueue_kick(sq->vq);
......
return NETDEV_TX_OK;
}
在start_xmit()中,主要的操作是使数据包入vring队列:
static int xmit_skb(struct send_queue *sq, struct sk_buff *skb)
{
struct skb_vnet_hdr *hdr;
const unsigned char *dest = ((struct ethhdr *)skb->data)->h_dest;
struct virtnet_info *vi = sq->vq->vdev->priv;
unsigned num_sg;
unsigned hdr_len;
bool can_push;
pr_debug("%s: xmit %p %pMn", vi->dev->name, skb, dest);
if (vi->mergeable_rx_bufs)
hdr_len = sizeof hdr->mhdr;
else
hdr_len = sizeof hdr->hdr;
......
if (can_push)
hdr = (struct skb_vnet_hdr *)(skb->data - hdr_len);
else
hdr = skb_vnet_hdr(skb);
......
if (can_push) {
__skb_push(skb, hdr_len);
num_sg = skb_to_sgvec(skb, sq->sg, 0, skb->len);
/* Pull header back to avoid skew in tx bytes calculations. */
__skb_pull(skb, hdr_len);
} else {
sg_set_buf(sq->sg, hdr, hdr_len);
num_sg = skb_to_sgvec(skb, sq->sg + 1, 0, skb->len) + 1;
}
return virtqueue_add_outbuf(sq->vq, sq->sg, num_sg, skb, GFP_ATOMIC);
}
在每个进入scatter-gather list的packet之前,需要有一个virtio_net_hdr结构的头部信息,用以
支持checksum offload与TCP/UDP Segmentation offload。所以在上述流程中先使用sg_set_buf(sq->sg, hdr, hdr_len)将virtio-net-hdr的buffer填入了scatter-gather list,如下是virtio_net_hdr的结构:
struct skb_vnet_hdr {
union {
struct virtio_net_hdr hdr;
struct virtio_net_hdr_mrg_rxbuf mhdr;
};
};
struct virtio_net_hdr {
#define VIRTIO_NET_HDR_F_NEEDS_CSUM 1 // Use csum_start, csum_offset
#define VIRTIO_NET_HDR_F_DATA_VALID 2 // Csum is valid
__u8 flags;
#define VIRTIO_NET_HDR_GSO_NONE 0 // Not a GSO frame
#define VIRTIO_NET_HDR_GSO_TCPV4 1 // GSO frame, IPv4 TCP (TSO)
#define VIRTIO_NET_HDR_GSO_UDP 3 // GSO frame, IPv4 UDP (UFO)
#define VIRTIO_NET_HDR_GSO_TCPV6 4 // GSO frame, IPv6 TCP
#define VIRTIO_NET_HDR_GSO_ECN 0x80 // TCP has ECN set
__u8 gso_type;
__u16 hdr_len; /* Ethernet + IP + tcp/udp hdrs */
__u16 gso_size; /* Bytes to append to hdr_len per frame */
__u16 csum_start; /* Position to start checksumming from */
__u16 csum_offset; /* Offset after that to place checksum */
};
skbuffer与sg list的关系
最后调用return virtqueue_add_outbuf(sq->vq, sq->sg, num_sg, skb, GFP_ATOMIC);进入vring操作阶段。
int virtqueue_add_outbuf(struct virtqueue *vq,
struct scatterlist sg[], unsigned int num,
void *data,
gfp_t gfp)
{
return virtqueue_add(vq, &sg, sg_next_arr, num, 0, 1, 0, data, gfp);
}
static inline int virtqueue_add(struct virtqueue *_vq,
struct scatterlist *sgs[],
struct scatterlist *(*next)
(struct scatterlist *, unsigned int *),
unsigned int total_out,
unsigned int total_in,
unsigned int out_sgs,
unsigned int in_sgs,
void *data,
gfp_t gfp)
{
............
/* We're about to use some buffers from the free list. */
vq->_free -= total_sg;
head = i = vq->free_head; //<-------------------- 空闲的描述符索引
/* Update free pointer */
vq->free_head = i;
add_head:
/* Set token. */
vq->data[head] = data;
/* Put entry in available array (but don't update avail->idx until they
* do sync). */
avail = (vq->->idx & (vq->-1));
vq->->ring[avail] = head;
/* Descriptors and available array need to be set before we expose the
* new available array entries. */
virtio_wmb(vq->weak_barriers);
vq->->idx++;
vq->num_added++;
/* This is very unlikely, but theoretically possible. Kick
* just in case. */
if (unlikely(vq->num_added == (1 << 16) - 1)) //为什么vq->num_added==65536时,才kick?
virtqueue_kick(_vq);
pr_debug("Added buffer head %i to %pn", head, vq);
END_USE(vq);
return 0;
}
1.从head = i = vq->free_head;找到第一片可用的desc;
2.从sg list将需要发送buffer信息读取并填充vring的desc描述符;
addr: guest的物理地址
len: buffer的长度
for (n = 0; n < out_sgs; n++) {
for (sg = sgs[n]; sg; sg = next(sg, &total_out)) {
vq->[i].flags = VRING_DESC_F_NEXT;
vq->[i].addr = sg_phys(sg);
vq->[i].len = sg->length;
prev = i;
i = vq->[i].next; //通过next字段找到下一个可用的desc
}
}
............
/* Last one doesn't continue. */
vq->[prev].flags &= ~VRING_DESC_F_NEXT;
flags:VRING_DESC_F_NEXT表示该片buffer还有后续片
3.将最后一片占用的desc的flag作下标记,表示buffer片的终结;
4.更新空闲desc的指针;
5.将skb保存在data[]中作为token,用完后再释放;
6.更新avail描述符,将待发送的第一片buffer在desc中的序号写入空闲的avail ring中,并更新avail描述队列的序号等。
操作的关系图:
在start_xmit中,待发送的信息入队列后,使用virtqueue_kick(sq->vq)通告Host端;
bool virtqueue_kick(struct virtqueue *vq)
{
if (virtqueue_kick_prepare(vq))
return virtqueue_notify(vq);
return true;
}
bool virtqueue_notify(struct virtqueue *_vq)
{
struct vring_virtqueue *vq = to_vvq(_vq);
if (unlikely(vq->broken))
return false;
/* Prod other side to tell it about changes. */
if (!vq->notify(_vq)) { //setup_vq->vring_new_virtqueue(.... ,vp_notify, ....);
vq->broken = true;
return false;
}
return true;
}
/* the notify function used when creating a virt queue */
static bool vp_notify(struct virtqueue *vq)
{
struct virtio_pci_device *vp_dev = to_vp_device(vq->vdev);
/* we write the queue's selector into the notification register to
* signal the other end */
iowrite16(vq->index, vp_dev->ioaddr + VIRTIO_PCI_QUEUE_NOTIFY);
return true;
}
Qemu端:
void virtio_queue_notify_vq(VirtQueue *vq)
{
if (vq->) {
VirtIODevice *vdev = vq->vdev;
trace_virtio_queue_notify(vdev, vq - vdev->vq, vq);
vq->handle_output(vdev, vq); <-----------------virtio_net_handle_tx_timer/virtio_net_handle_tx_bh
}
}
#define TX_TIMER_INTERVAL 150000 /* 150 us */
static void virtio_net_handle_tx_timer(VirtIODevice *vdev, VirtQueue *vq)
{
............
timer_mod(q->tx_timer,
qemu_clock_get_ns(QEMU_CLOCK_VIRTUAL) + n->tx_timeout);
q->tx_waiting = 1;
virtio_queue_set_notification(vq, 0);
............
}
virtio_net_device_realize
n->vqs[0].tx_timer = timer_new_ns(QEMU_CLOCK_VIRTUAL, virtio_net_tx_timer,
&n->vqs[0]); //创建发包定时器
static void virtio_net_tx_timer(void *opaque)
{
............
virtio_queue_set_notification(q->tx_vq, 1); //将avail_idx的值写入avail_event_idx中
virtio_net_flush_tx(q);
}
/* TX */
static int32_t virtio_net_flush_tx(VirtIONetQueue *q)
{
............
while (virtqueue_pop(q->tx_vq, &elem)) { //从queue中取出描述符,填充进elem
............
ret = qemu_sendv_packet_async(qemu_get_subqueue(n->nic, queue_index),
out_sg, out_num, virtio_net_tx_complete);
//qemu_sendv_packet_async -> qemu_net_queue_send_iov->qemu_net_queue_deliver_iov
// ->qemu_deliver_packet_iov->tap_receive_iov->tap_write_packet
............
len += ret;
virtqueue_push(q->tx_vq, &elem, 0);
virtio_notify(vdev, q->tx_vq);
if (++num_packets >= n->tx_burst) {
break;
}
}
return num_packets;
}
void virtqueue_push(VirtQueue *vq, const VirtQueueElement *elem,
unsigned int len)
{
virtqueue_fill(vq, elem, len, 0); //取消内存映射,更新 used_ring[idx]中的 id 和 len 字段
virtqueue_flush(vq, 1); //更新 vring_used 中的 idx
}
接收
Qemu端:
Tap_send -> tap_read_packet -> qemu_send_packet_async -> qemu_send_packet_async_with_flags
-> qemu_net_queue_send -> qemu_deliver_packet -> virtio_net_receive
static NetClientInfo net_virtio_info = {
.type = NET_CLIENT_OPTIONS_KIND_NIC,
.size = sizeof(NICState),
.can_receive = virtio_net_can_receive,
.receive = virtio_net_receive,
.cleanup = virtio_net_cleanup,
.link_status_changed = virtio_net_set_link_status,
.query_rx_filter = virtio_net_query_rxfilter,
};
ssize_t qemu_deliver_packet(NetClientState *sender,unsigned flags,const uint8_t *data,size_t size,void *opaque)
{
.......
if (flags & QEMU_NET_PACKET_FLAG_RAW && nc->info->receive_raw) {
ret = nc->info->receive_raw(nc, data, size);
} else {
ret = nc->info->receive(nc, data, size);
}
.......
}
//virtio_net_receive
static ssize_t virtio_net_receive(NetClientState *nc, const uint8_t *buf, size_t size)
{
......
while (offset < size) {
VirtQueueElement elem;
int len, total;
const struct iovec *sg = _sg;
total = 0;
if (virtqueue_pop(q->rx_vq, &elem) == 0) { <--------从avail ring中取一个desc出来
......
}
......
/* signal other side */
virtqueue_fill(q->rx_vq, &elem, total, i++); <----------填充used ring
}
......
virtqueue_flush(q->rx_vq, i); <----------更新used idx
virtio_notify(vdev, q->rx_vq); <----------通知guest机
return size;
}
Guest端:
virtnet_find_vqs -> vp_find_vqs(find_vqs) -> vp_try_to_find_vqs -> setup_vq
callbacks[rxq2vq(i)] = skb_recv_done;
callbacks[txq2vq(i)] = skb_xmit_done;
vp_interrupt -> vp_vring_interrupt -> vring_interrupt -> vq->ck
static void skb_recv_done(struct virtqueue *rvq)
{
struct virtnet_info *vi = rvq->vdev->priv;
struct receive_queue *rq = &vi->rq[vq2rxq(rvq)];
/* Schedule NAPI, Suppress further interrupts if successful. */
if (napi_schedule_prep(&rq->napi)) {
virtqueue_disable_cb(rvq);
//NAPI的调度函数。把设备的napi_struct实例添加到当前CPU的softnet_data的poll_list中,
以便于接下来进行轮询。然后设置NET_RX_SOFTIRQ标志位来触发软中断。
__napi_schedule(&rq->napi);
}
}
static int virtnet_poll(struct napi_struct *napi, int budget)
{
......
again:
while (received < budget &&
(buf = virtqueue_get_buf(rq->vq, &len)) != NULL) { <-----从used ring中取包数据
receive_buf(rq, buf, len);
--rq->num;
received++;
}
if (rq->num < rq->max / 2) { <--------如果收包队列中可用的desc小于总大小的一半时,回收
if (!try_fill_recv(rq, GFP_ATOMIC)) <-----由于内存不够没有全部回收成功,丢给refill工作队列去干
schedule_delayed_work(&vi->refill, 0); //refill_work
}
/* Out of packets? */
if (received < budget) { <---------包不多,则开启中断模式
r = virtqueue_enable_cb_prepare(rq->vq);
napi_complete(napi); <---------结束轮询
if (unlikely(virtqueue_poll(rq->vq, r)) && <---------qemu端又生产包了,则重新开启轮询模式
napi_schedule_prep(napi)) {
virtqueue_disable_cb(rq->vq);
__napi_schedule(napi);
goto again;
}
}
return received;
}
virtnet_probe -> init_vqs -> virtnet_alloc_queues -> netif_napi_add(vi->dev, &vi->rq[i].napi, virtnet_poll,
napi_weight);
static int virtnet_alloc_queues(struct virtnet_info *vi)
{
......
INIT_DELAYED_WORK(&vi->refill, refill_work);
for (i = 0; i < vi->max_queue_pairs; i++) {
vi->rq[i].pages = NULL;
netif_napi_add(vi->dev, &vi->rq[i].napi, virtnet_poll, <------注册轮询函数,指定每次最大处理的包数
napi_weight);
sg_init_table(vi->rq[i].sg, ARRAY_SIZE(vi->rq[i].sg));
sg_init_table(vi->sq[i].sg, ARRAY_SIZE(vi->sq[i].sg));
}
......
}
static int virtnet_open(struct net_device *dev) <-----网卡被up起来时调用
{
struct virtnet_info *vi = netdev_priv(dev);
int i;
for (i = 0; i < vi->max_queue_pairs; i++) {
if (i < vi->curr_queue_pairs)
/* Make sure we have some buffers: if oom use wq. */
if (!try_fill_recv(&vi->rq[i], GFP_KERNEL)) <------填充desc
schedule_delayed_work(&vi->refill, 0);
virtnet_napi_enable(&vi->rq[i]);
}
return 0;
}
版权声明:本文标题:virtio_net数据包的收发 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/free/1709895458h549639.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论