1 一.I.MX6 UART驱动
2 文件路径:\linux_IMX6_CoreC_3.0.35_for_Linux\drivers\tty\serial\imx.c
3 1.驱动入口函数:imx_serial_init()
4 1.1 static int __init imx_serial_init(void)
5 ret = uart_register_driver(&imx_reg); //驱动加载的时候调用了这个函数注册串口驱动,将参数imx_reg注册进了tty层
6 struct tty_driver *normal;
7 normal = alloc_tty_driver(drv->nr); //申请tty驱动,串口设备套上了一层tty驱动的外壳
8 ...
9 tty_set_operations(normal, &uart_ops);
10 //上面这段代码可以得出一个结论,uart_driver的数据类型其实就是tty_driver,两者进行数据转换之后注册进了tty层。
11 //tty_set_operations(normal, &uart_ops);将uart的操作函数和tty关联起来,应用层对于tty的操作都将对应到uart的操作
12
13 retval = tty_register_driver(normal); //向TTY核心层注册一个TTY驱动,所以串口设备其实就是一个tty类型的设备
14 alloc_chrdev_region(&dev, driver->minor_start, driver->num, driver->name);
15 register_chrdev_region(dev, driver->num, driver->name);
16 cdev_init(&driver->cdev, &tty_fops); //初始化设备,注意这里将指针调用关系赋给了cdev
17
18 ret = platform_driver_register(&serial_imx_driver); //注册平台驱动
19 //serial_imx_driver变量类型如下
20 static struct platform_driver serial_imx_driver = {
21 .probe = serial_imx_probe, //当匹配到设备之后,这句函数得到调用,转去分析这个函数
22 .remove = serial_imx_remove,
23
24 .suspend = serial_imx_suspend,
25 .resume = serial_imx_resume,
26 .driver = {
27 .name = "imx-uart",
28 .owner = THIS_MODULE,
29 },
30 };
31 1.2 serial_imx_probe
32 static int serial_imx_probe(struct platform_device *pdev)
33 sport->port.dev = &pdev->dev;
34 //imx_pops是串口接收数据、发送数据的相关函数(注意这里要区别前面的串口操作函数)
35 //我觉得前面的串口操作函数是从应用层或者tty的角度来看,使用者也仅仅是应用层(tty层)
36 //这里的imx_pops里面众多的操作函数是从底层的角度去看,也就是底层和硬件相关的中断接收、发送相关。
37 sport->port.ops = &imx_pops;
38 sport->port.flags = UPF_BOOT_AUTOCONF;
39 sport->port.line = pdev->id;
40 init_timer(&sport->timer);
41 sport->timer.function = imx_timeout;
42 sport->timer.data = (unsigned long)sport;
43 ...
44 ...
45 ...
46 ret = uart_add_one_port(&imx_reg, &sport->port); //关键:为uart_driver增加一个端口
47 //列出imx_pops重要的几个函数
48 static struct uart_ops imx_pops = {
49 ...
50 .stop_tx = imx_stop_tx,
51 .start_tx = imx_start_tx, //串口发送
52 .stop_rx = imx_stop_rx,
53 .startup = imx_startup, //中断发送相关的函数,接下来我们分析这个发送函数
54 ...
55 };
56
57 1.3 static int imx_startup(struct uart_port *port) //做一些串口的初始化操作
58 {
59 struct imx_port *sport = (struct imx_port *)port;
60 struct tty_struct *tty;
61 ...
62 clk_enable(sport->clk); //使能时钟
63
64 /* disable the DREN bit (Data Ready interrupt enable) before
65 * requesting IRQs
66 */
67 temp = readl(sport->port.membase + UCR4);
68 ...
69 writel(temp & ~UCR4_DREN, sport->port.membase + UCR4);
70 ...
71 /*
72 * Allocate the IRQ(s) i.MX1 has three interrupts whereas later
73 * chips only have one interrupt.
74 */
75 retval = request_irq(sport->rxirq, imx_rxint, 0, DRIVER_NAME, sport);//关键:在这里申请了接收中断函数(同时注册了中断接收函数imx_rxint)
76 ...
77 retval = request_irq(sport->txirq, imx_txint, 0, DRIVER_NAME, sport);//申请注册发送中断函数(这次分析我们不关心发送中断)
78 /* Enable the SDMA for uart. */
79 if (sport->enable_dma) //如果配置串口使用DMA
80 {
81 int ret;
82 ret = imx_uart_dma_init(sport); //DMA的初始化
83 //下面几句代码都是DMA初始化相关,平台通用,不展开说明啦
84 sport->dma_data.priority = DMA_PRIO_HIGH;
85 sport->dma_data.dma_request = pdata->dma_req_rx;
86 sport->dma_data.peripheral_type = IMX_DMATYPE_UART;
87 sport->dma_chan_rx = dma_request_channel(mask, imx_uart_filter, sport);
88 ...
89 slave_config.direction = DMA_DEV_TO_MEM;
90 slave_config.src_addr = sport->port.mapbase + URXD0;
91 //注意:如果配置串口使用DMA,这里初始化了一个工作队列(中断下半部的一种),来进行数据的接收和发送
92 //听说3.0.35版本的内核DMA驱动有问题,不知道是不是真的,待证实,实际使用的时候,确实是发现DMA在连续传输大量数据的时候会出现数据丢失的情况
93 INIT_WORK(&sport->tsk_dma_tx, dma_tx_work);
94 INIT_WORK(&sport->tsk_dma_rx, dma_rx_work); //基于DMA的串口中断接收函数,也是在这里注册了一个工作队列
95 dma_rx_work(struct work_struct *w)
96 tty_insert_flip_string(tty, sport->rx_buf, sport->rx_bytes);//关键的函数调用:将数据放到tty数据缓冲区
97 tty_insert_flip_string_fixed_flag(tty, chars, TTY_NORMAL, size);
98 struct tty_buffer *tb = tty->buf.tail;
99 memcpy(tb->char_buf_ptr + tb->used, chars, space);
100 memset(tb->flag_buf_ptr + tb->used, flag, space);
101 //如果不调用下面的函数,只是将数据放到tty缓冲区,tty也是获取不到数据的
102 tty_flip_buffer_push(tty); //将缓冲区的数据推到tty当中,其实内部是一个工作队列的调度(在tty初始化的时候注册了这个工作队列),等于是通知tty的线路规程获取数据的意思
103 schedule_work(&tty->buf.work); //工作调度,实际上调用了flush_to_ldisc函数(这个函数好像不能在中断中调用
104 //,但是我发现也有其他驱动直接在中断调用了,实际上我在中断中调用业一直没发现有什么问题)
105 init_waitqueue_head(&sport->dma_wait);
106 }
107 ...
108 spin_lock_irqsave(&sport->port.lock, flags);
109 /*
110 * Finally, clear and enable interrupts
111 */
112 writel(USR1_RTSD, sport->port.membase + USR1); //使能中断
113
114 }
115
116 1.4 //在前面刚进入函数的时候,我们申请了串口中断,同时注册了imx_rxint接收函数,接下来分析这个函数
117 retval = request_irq(sport->rxirq, imx_rxint, 0, DRIVER_NAME, sport);
118 spin_lock_irqsave(&sport->port.lock,flags); //先获取自旋锁
119
120 while (readl(sport->port.membase + USR2) & USR2_RDR) //判断串口寄存器状态,开始接收字节数据
121 {
122 flg = TTY_NORMAL;
123 sport->port.icount.rx++;
124 rx = readl(sport->port.membase + URXD0);
125 temp = readl(sport->port.membase + USR2);
126 ...
127 if (uart_handle_sysrq_char(&sport->port, (unsigned char)rx))
128 continue;
129 if (rx & URXD_BRK)
130 flg = TTY_BREAK;
131 else if (rx & URXD_PRERR)
132 flg = TTY_PARITY;
133 else if (rx & URXD_FRMERR)
134 flg = TTY_FRAME;
135 if (rx & URXD_OVRRUN)
136 flg = TTY_OVERRUN;
137 }
138 tty_insert_flip_char(tty, rx, flg);
139 tty_insert_flip_string_flags(tty, &ch, &flag, 1);
140 struct tty_buffer *tb = tty->buf.tail;
141 memcpy(tb->char_buf_ptr + tb->used, chars, space);
142 memcpy(tb->flag_buf_ptr + tb->used, flags, space);
143 out:
144 spin_unlock_irqrestore(&sport->port.lock,flags);//释放自旋锁
145 tty_flip_buffer_push(tty);//里面有工作队列的调度,将数据“刷新”到tty
146 return IRQ_HANDLED;
147
148 2.uart操作函数结构体
149 static const struct tty_operations uart_ops = {
150 .open = uart_open,
151 .close = uart_close,
152 .write = uart_write,
153 .put_char = uart_put_char,
154 ...
155 ...
156 ...
157 };
158 //从结构体的类型我们知道,uart_ops的数据类型就是tty_operations 类型,对应tty的文件操作函数
159 //所以tty的操作路径就对应着tty_ops-->uart_driver-->uart->ops
160
161 3.uart_open函数
162 static int uart_open(struct tty_struct *tty, struct file *filp)
163 struct uart_driver *drv = (struct uart_driver *)tty->driver->driver_state;
164
165 4.uart_close函数
166 static void uart_close(struct tty_struct *tty, struct file *filp)
167 struct uart_state *state = tty->driver_data;
168
169 5.uart_write函数
170 static int uart_write(struct tty_struct *tty, const unsigned char *buf, int count)
171 struct uart_state *state = tty->driver_data;
172 //在前面,normal->driver_state = drv;将串口的私有数据赋值给tty
173 //上面3、4、5这几个函数是在我们打开串口或者做串口操作的时候,将数据从tty拿出来(因为打开串口的时候,
174 //就是tty去操作设备号对应将设备的信息传递到驱动中来)
175 //这几个函数都是应用层在操作串口的时候才会调用,与串口数据发送没有关系,所以就不展开分析了。
176
177
178 二、tty驱动分析(不针对特定处理器平台)
179 文件路径:\linux_IMX6_CoreC_3.0.35_for_Linux\drivers\tty\tty_io.c
180 \linux_IMX6_CoreC_3.0.35_for_Linux\drivers\tty\tty_buffer.c
181 \linux_IMX6_CoreC_3.0.35_for_Linux\drivers\tty\tty_ldisc.c
182 tty由上往下分为tty核心层、tty线路规程、tty驱动,用户空间对应tty设备的操作函数定义及实现都在tty_io.c中。
183 tty核心层不能直接从tty驱动获取数据,底层的数据经过tty驱动,在经过tty线路规程,再到tty核心层。
184 1. 线路规程的初始化
185 //线路规程的初始化是在内核刚启动的时候完成的,文件路径是\init\main.c
186 asmlinkage void __init start_kernel(void)
187 console_init();
188 /* Setup the default TTY line discipline. */
189 tty_ldisc_begin();
190 /* Setup the default TTY line discipline. */
191 (void) tty_register_ldisc(N_TTY, &tty_ldisc_N_TTY);
192 //分析tty_ldisc_N_TTY结构体变量(属于tty_ldisc_ops类型,接着分析tty_ldisc_ops)
193 1.1 tty_ldisc_ops(线路规程操作函数结构体)
194 struct tty_ldisc_ops tty_ldisc_N_TTY =
195 {
196 .magic = TTY_LDISC_MAGIC,
197 .name = "n_tty",
198 .open = n_tty_open,
199 .close = n_tty_close,
200 .flush_buffer = n_tty_flush_buffer,
201 .chars_in_buffer = n_tty_chars_in_buffer,
202 .read = n_tty_read,
203 .write = n_tty_write,
204 .ioctl = n_tty_ioctl,
205 .set_termios = n_tty_set_termios,
206 .poll = n_tty_poll,
207 .receive_buf = n_tty_receive_buf,
208 .write_wakeup = n_tty_write_wakeup
209 };
210 //以上这些函数就是tty线路规程在操作数据时候用到的函数,从tty应用层操作向下看就是tty_ops--->tty_ldisc_ops
211 //前面分析uart驱动时候uart_ops和实际的数据接收和发送函数是分开的,在这里也是类似。
212 //操作设备是一组函数,实际做数据收发的又是另外一组函数。
213 1.1.1 n_tty_open函数
214 static int n_tty_open(struct tty_struct *tty)
215 tty->read_buf = kzalloc(N_TTY_BUF_SIZE, GFP_KERNEL);//分配tty缓冲区给tty_read_buf,其中N_TTY_BUF_SIZE为4096
216 ...
217 reset_buffer_flags(tty);//初始化头尾指针、读计数等
218 tty->read_head = tty->read_tail = tty->read_cnt = 0;
219 1.1.2 n_tty_write函数
220 static ssize_t n_tty_write(struct tty_struct *tty, struct file *file, const unsigned char *buf, size_t nr)
221 ...
222 //这里调用到了tty_driver操作函数,因为在之前的tty_open函数中有了tty->ops=driver->ops这样的操作。
223 //注册的时候初始化了ops
224 tty->ops->flush_chars(tty);
225 ...
226 c = tty->ops->write(tty, b, nr);
227
228 1.1.3 n_tty_read函数
229 static ssize_t n_tty_read(struct tty_struct *tty, struct file *file, unsigned char __user *buf, size_t nr)
230 ...
231 ...
232 while (nr)
233 {
234 c = tty->read_buf[tty->read_tail];//从tty读缓冲区获取数据
235 ...
236 tty_put_user(tty, c, b++);
237 tty_audit_add_data(tty, &x, 1);
238 put_user(x, ptr);
239 uncopied = copy_from_read_buf(tty, &b, &nr);
240 uncopied += copy_from_read_buf(tty, &b, &nr);
241 }
242 //注意这里tty线路规程对数据的读操作并没有调用到tty驱动层的读函数。
243 //和tty线路规程对数据的写操作要做个对比和区别。
244 //tty的数据读取是“被动”读取的,简单讲就是通过串口中断接收字节,然后调度tty初始化时候注册的工作队列来实现数据的读取,
245 //对应的函数是:
246 flush_to_ldisc();
247 ...
248 disc->ops->receive_buf(tty, char_buf,flag_buf, count);//具体调用的函数是n_tty_receive_buf函数
249 ...
250 2. int __init tty_init(void)
251 //初始化tty设备,tty设备本质上也是一个字符设备
252 //用户空间对于tty设备的操作都对应到tty_fops结构体里面的函数
253 cdev_init(&tty_cdev, &tty_fops);//我们重点分析tty操作函数结构体里面的函数集合
254 cdev_add(&tty_cdev, MKDEV(TTYAUX_MAJOR, 0), 1);
255 register_chrdev_region(MKDEV(TTYAUX_MAJOR, 0), 1, "/dev/tty");
256 device_create(tty_class, NULL, MKDEV(TTYAUX_MAJOR, 0), NULL, "tty");//创建设备
257 //初始化tty设终端(关于tty的终端,我们暂时不分析)
258 cdev_init(&console_cdev, &console_fops);
259 register_chrdev_region(MKDEV(TTYAUX_MAJOR, 1), 1, "/dev/console");
260 consdev = device_create(tty_class, NULL, MKDEV(TTYAUX_MAJOR, 1), NULL, "console");
261 ...
262 2.1 tty_buffer_init()函数
263 INIT_WORK(&tty_buf.work, flush_to_ldisc);//flush_to_ldisc函数绑定到工作队列,当tty_filp_buffer_push函数中调用schedule_work(&tty->buf.work);时候,函数得到调用
264 2.2 tty_fops结构体
265 static const struct file_operations tty_fops = {
266 .llseek = no_llseek,
267 .read = tty_read, //注意这里的read函数不是对应uart操作函数里面的read函数(需要做关联),后面会讲到
268 .write = tty_write, //同上
269 .poll = tty_poll,
270 .unlocked_ioctl = tty_ioctl,
271 .compat_ioctl = tty_compat_ioctl,
272 .open = tty_open,
273 .release = tty_release,
274 .fasync = tty_fasync,
275 };
276
277 2.3 tty_open函数(打开tty设备时候做的一些初始化操作,建立tty核心和线路规程以及硬件驱动的联系)
278 static int tty_open(struct inode *inode, struct file *filp)
279 struct tty_driver *driver;
280 int index;
281 dev_t device = inode->i_rdev;
282 ...
283 tty = get_current_tty();
284 tty_free_file(filp);
285 ...
286 driver = tty_driver_kref_get(tty->driver);
287 ...
288 driver = get_tty_driver(device, &index); //根据设备号,来查找到tty_driver
289 tty = tty_init_dev(driver, index, 0); //初始化tty结构体
290 initialize_tty_struct(tty, driver, idx); //关键的一个初始化,在里面建立tty核心层和线路规程的联系
291 tty_ldisc_init(tty); //初始化线路规程
292 tty->buf.head = tty->buf.tail = NULL; //缓冲区头尾指空
293 tty_buffer_init(tty); //初始化tty缓冲区
294 spin_lock_init(&tty->buf.lock);
295 tty->buf.head= NULL;
296 tty->buf.tail= NULL;
297 tty->buf.free= NULL;
298 tty->buf.memory_used= 0;
299 //初始化了一个工作队列
300 //当在驱动层里receive_chars的最后调用了tty_flip_buffer_push这个函数的时候这个队里得到调度
301 INIT_DELAYED_WORK(&tty->buf.work, flush_to_ldisc);//在中断下半部中进行调度时候,flush_to_ldisc会得到调用,接下来分析这个函数
302 ...
303 tty->ops = driver->ops; //tty操作指向tty设备操作(注意这里是指向具体的硬件设备驱动操作)
304 tty->dev = tty_get_device(tty);
305 dev_t devt = tty_devnum(tty); //获得设备号
306 ...
307 retval = tty_driver_install_tty(driver, tty);
308 ...
309 retval = tty_ldisc_setup(tty, tty->link); //设置线路规程
310 retval = tty_ldisc_open(tty, ld); //打开线路规程
311 tty_ldisc_enable(tty); //使能线路规程
312 ...
313 tty_add_file(tty, filp);
314 check_tty_count(tty, "tty_open"); //检查tty被打开多少次
315 ...
316 retval = tty->ops->open(tty, filp); //实际上就是driver->ops->open(注意这里的driver指的是具体硬件的driver)
317 2.3.1 tty_flip_buffer_push函数
318 void tty_flip_buffer_push(struct tty_struct *tty)
319 ...
320 ...
321 ...
322 if (tty->low_latency)
323 flush_to_ldisc(&tty->buf.work.work);
324 else
325 schedule_work(&tty->buf.work);//工作队列调度,内核线程???会调用flush_to_ldisc
326
327 2.3.2 flush_to_ldisc函数
328 //从tty_buffer中找到数据缓冲区char_buf_ptr,并将这个缓冲区指针传递给线路规程的操作函数receive_buf。
329 //拷贝数据进tty的read_buf
330 flush_to_ldisc(struct work_struct *work)
331 disc->ops->receive_buf(tty, char_buf, flag_buf,count);
332 n_tty_receive_buf(struct tty_struct *tty, const unsigned char*cp, char *fp, int count);
333 n_tty_receive_char(tty,*p);
334 ...
335 if(tty->ops->flush_chars)
336 tty->ops->flush_chars(tty);
337
338 2.4 tty_write函数(应用层调用)
339 static ssize_t tty_write(struct file *file, const char __user *buf, size_t count, loff_t *ppos)
340 struct tty_struct *tty = file_tty(file);
341 struct tty_ldisc *ld; //tty线路规程结构体,这个结构体很重要
342 ...
343 ld = tty_ldisc_ref_wait(tty); //等待tty线路规程(所有从tty驱动上来的数据或者从应用层到tty驱动的数据,都要经过线路规程)
344 ret = do_tty_write(ld->ops->write, tty, file, buf, count); //do_tty_write这里实际上是调用了ld->ops->write(也就是线路规程的write函数,将数据写入tty缓冲区)
345 //等价于调用n_tty_write函数
346 //在n_tty_write函数中调用下面tty driver中的操作函数
347 tty->ops->flush_chars(tty);
348 ...
349 c = tty->ops->write(tty, b, nr);
350 copy_from_user(tty->write_buf, buf, size); //从用户空间拷贝数据到tty写缓冲中
351
352 2.5 tty_read函数(应用层调用)
353 static ssize_t tty_read(struct file *file, char __user *buf, size_t count, loff_t *ppos)
354 ...
355 struct tty_struct *tty = file_tty(file);
356 ...
357 i = (ld->ops->read)(tty, file, buf, count);//调用线路规程里面的read函数(n_tty_read)
358 //下面这几句代码是n_tty_read函数的
359 while (nr)
360 {
361 c = tty->read_buf[tty->read_tail];//从tty读缓冲区获取数据,实际上是在tty->read_buf的末尾tty->read_tail中读取数据
362 ...
363 tty_put_user(tty, c, b++);
364 tty_audit_add_data(tty, &x, 1);
365 put_user(x, ptr);
366 uncopied = copy_from_read_buf(tty, &b, &nr);
367 uncopied += copy_from_read_buf(tty, &b, &nr);
368 }
来源:oschina
链接:https://my.oschina.net/u/4340449/blog/3274681