]> asedeno.scripts.mit.edu Git - linux.git/blob - drivers/gpu/drm/nouveau/nvkm/subdev/bar/nv50.c
drm/nouveau/bar/nv50: check bar1 vmm return value
[linux.git] / drivers / gpu / drm / nouveau / nvkm / subdev / bar / nv50.c
1 /*
2  * Copyright 2012 Red Hat Inc.
3  *
4  * Permission is hereby granted, free of charge, to any person obtaining a
5  * copy of this software and associated documentation files (the "Software"),
6  * to deal in the Software without restriction, including without limitation
7  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
8  * and/or sell copies of the Software, and to permit persons to whom the
9  * Software is furnished to do so, subject to the following conditions:
10  *
11  * The above copyright notice and this permission notice shall be included in
12  * all copies or substantial portions of the Software.
13  *
14  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
15  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
16  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
17  * THE COPYRIGHT HOLDER(S) OR AUTHOR(S) BE LIABLE FOR ANY CLAIM, DAMAGES OR
18  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
19  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
20  * OTHER DEALINGS IN THE SOFTWARE.
21  *
22  * Authors: Ben Skeggs
23  */
24 #include "nv50.h"
25
26 #include <core/gpuobj.h>
27 #include <subdev/fb.h>
28 #include <subdev/mmu.h>
29 #include <subdev/timer.h>
30
31 static void
32 nv50_bar_flush(struct nvkm_bar *base)
33 {
34         struct nv50_bar *bar = nv50_bar(base);
35         struct nvkm_device *device = bar->base.subdev.device;
36         unsigned long flags;
37         spin_lock_irqsave(&bar->base.lock, flags);
38         nvkm_wr32(device, 0x00330c, 0x00000001);
39         nvkm_msec(device, 2000,
40                 if (!(nvkm_rd32(device, 0x00330c) & 0x00000002))
41                         break;
42         );
43         spin_unlock_irqrestore(&bar->base.lock, flags);
44 }
45
46 struct nvkm_vmm *
47 nv50_bar_bar1_vmm(struct nvkm_bar *base)
48 {
49         return nv50_bar(base)->bar1_vmm;
50 }
51
52 void
53 nv50_bar_bar1_wait(struct nvkm_bar *base)
54 {
55         nvkm_bar_flush(base);
56 }
57
58 void
59 nv50_bar_bar1_fini(struct nvkm_bar *bar)
60 {
61         nvkm_wr32(bar->subdev.device, 0x001708, 0x00000000);
62 }
63
64 void
65 nv50_bar_bar1_init(struct nvkm_bar *base)
66 {
67         struct nvkm_device *device = base->subdev.device;
68         struct nv50_bar *bar = nv50_bar(base);
69         nvkm_wr32(device, 0x001708, 0x80000000 | bar->bar1->node->offset >> 4);
70 }
71
72 struct nvkm_vmm *
73 nv50_bar_bar2_vmm(struct nvkm_bar *base)
74 {
75         return nv50_bar(base)->bar2_vmm;
76 }
77
78 void
79 nv50_bar_bar2_fini(struct nvkm_bar *bar)
80 {
81         nvkm_wr32(bar->subdev.device, 0x00170c, 0x00000000);
82 }
83
84 void
85 nv50_bar_bar2_init(struct nvkm_bar *base)
86 {
87         struct nvkm_device *device = base->subdev.device;
88         struct nv50_bar *bar = nv50_bar(base);
89         nvkm_wr32(device, 0x001704, 0x00000000 | bar->mem->addr >> 12);
90         nvkm_wr32(device, 0x001704, 0x40000000 | bar->mem->addr >> 12);
91         nvkm_wr32(device, 0x00170c, 0x80000000 | bar->bar2->node->offset >> 4);
92 }
93
94 void
95 nv50_bar_init(struct nvkm_bar *base)
96 {
97         struct nv50_bar *bar = nv50_bar(base);
98         struct nvkm_device *device = bar->base.subdev.device;
99         int i;
100
101         for (i = 0; i < 8; i++)
102                 nvkm_wr32(device, 0x001900 + (i * 4), 0x00000000);
103 }
104
105 int
106 nv50_bar_oneinit(struct nvkm_bar *base)
107 {
108         struct nv50_bar *bar = nv50_bar(base);
109         struct nvkm_device *device = bar->base.subdev.device;
110         static struct lock_class_key bar1_lock;
111         static struct lock_class_key bar2_lock;
112         u64 start, limit;
113         int ret;
114
115         ret = nvkm_gpuobj_new(device, 0x20000, 0, false, NULL, &bar->mem);
116         if (ret)
117                 return ret;
118
119         ret = nvkm_gpuobj_new(device, bar->pgd_addr, 0, false, bar->mem,
120                               &bar->pad);
121         if (ret)
122                 return ret;
123
124         ret = nvkm_gpuobj_new(device, 0x4000, 0, false, bar->mem, &bar->pgd);
125         if (ret)
126                 return ret;
127
128         /* BAR2 */
129         start = 0x0100000000ULL;
130         limit = start + device->func->resource_size(device, 3);
131
132         ret = nvkm_vmm_new(device, start, limit-- - start, NULL, 0,
133                            &bar2_lock, "bar2", &bar->bar2_vmm);
134         if (ret)
135                 return ret;
136
137         atomic_inc(&bar->bar2_vmm->engref[NVKM_SUBDEV_BAR]);
138         bar->bar2_vmm->debug = bar->base.subdev.debug;
139
140         ret = nvkm_vmm_boot(bar->bar2_vmm);
141         if (ret)
142                 return ret;
143
144         ret = nvkm_vmm_join(bar->bar2_vmm, bar->mem->memory);
145         if (ret)
146                 return ret;
147
148         ret = nvkm_gpuobj_new(device, 24, 16, false, bar->mem, &bar->bar2);
149         if (ret)
150                 return ret;
151
152         nvkm_kmap(bar->bar2);
153         nvkm_wo32(bar->bar2, 0x00, 0x7fc00000);
154         nvkm_wo32(bar->bar2, 0x04, lower_32_bits(limit));
155         nvkm_wo32(bar->bar2, 0x08, lower_32_bits(start));
156         nvkm_wo32(bar->bar2, 0x0c, upper_32_bits(limit) << 24 |
157                                    upper_32_bits(start));
158         nvkm_wo32(bar->bar2, 0x10, 0x00000000);
159         nvkm_wo32(bar->bar2, 0x14, 0x00000000);
160         nvkm_done(bar->bar2);
161
162         bar->base.subdev.oneinit = true;
163         nvkm_bar_bar2_init(device);
164
165         /* BAR1 */
166         start = 0x0000000000ULL;
167         limit = start + device->func->resource_size(device, 1);
168
169         ret = nvkm_vmm_new(device, start, limit-- - start, NULL, 0,
170                            &bar1_lock, "bar1", &bar->bar1_vmm);
171         if (ret)
172                 return ret;
173
174         atomic_inc(&bar->bar1_vmm->engref[NVKM_SUBDEV_BAR]);
175         bar->bar1_vmm->debug = bar->base.subdev.debug;
176
177         ret = nvkm_vmm_join(bar->bar1_vmm, bar->mem->memory);
178         if (ret)
179                 return ret;
180
181         ret = nvkm_gpuobj_new(device, 24, 16, false, bar->mem, &bar->bar1);
182         if (ret)
183                 return ret;
184
185         nvkm_kmap(bar->bar1);
186         nvkm_wo32(bar->bar1, 0x00, 0x7fc00000);
187         nvkm_wo32(bar->bar1, 0x04, lower_32_bits(limit));
188         nvkm_wo32(bar->bar1, 0x08, lower_32_bits(start));
189         nvkm_wo32(bar->bar1, 0x0c, upper_32_bits(limit) << 24 |
190                                    upper_32_bits(start));
191         nvkm_wo32(bar->bar1, 0x10, 0x00000000);
192         nvkm_wo32(bar->bar1, 0x14, 0x00000000);
193         nvkm_done(bar->bar1);
194         return 0;
195 }
196
197 void *
198 nv50_bar_dtor(struct nvkm_bar *base)
199 {
200         struct nv50_bar *bar = nv50_bar(base);
201         if (bar->mem) {
202                 nvkm_gpuobj_del(&bar->bar1);
203                 nvkm_vmm_part(bar->bar1_vmm, bar->mem->memory);
204                 nvkm_vmm_unref(&bar->bar1_vmm);
205                 nvkm_gpuobj_del(&bar->bar2);
206                 nvkm_vmm_part(bar->bar2_vmm, bar->mem->memory);
207                 nvkm_vmm_unref(&bar->bar2_vmm);
208                 nvkm_gpuobj_del(&bar->pgd);
209                 nvkm_gpuobj_del(&bar->pad);
210                 nvkm_gpuobj_del(&bar->mem);
211         }
212         return bar;
213 }
214
215 int
216 nv50_bar_new_(const struct nvkm_bar_func *func, struct nvkm_device *device,
217               int index, u32 pgd_addr, struct nvkm_bar **pbar)
218 {
219         struct nv50_bar *bar;
220         if (!(bar = kzalloc(sizeof(*bar), GFP_KERNEL)))
221                 return -ENOMEM;
222         nvkm_bar_ctor(func, device, index, &bar->base);
223         bar->pgd_addr = pgd_addr;
224         *pbar = &bar->base;
225         return 0;
226 }
227
228 static const struct nvkm_bar_func
229 nv50_bar_func = {
230         .dtor = nv50_bar_dtor,
231         .oneinit = nv50_bar_oneinit,
232         .init = nv50_bar_init,
233         .bar1.init = nv50_bar_bar1_init,
234         .bar1.fini = nv50_bar_bar1_fini,
235         .bar1.wait = nv50_bar_bar1_wait,
236         .bar1.vmm = nv50_bar_bar1_vmm,
237         .bar2.init = nv50_bar_bar2_init,
238         .bar2.fini = nv50_bar_bar2_fini,
239         .bar2.wait = nv50_bar_bar1_wait,
240         .bar2.vmm = nv50_bar_bar2_vmm,
241         .flush = nv50_bar_flush,
242 };
243
244 int
245 nv50_bar_new(struct nvkm_device *device, int index, struct nvkm_bar **pbar)
246 {
247         return nv50_bar_new_(&nv50_bar_func, device, index, 0x1400, pbar);
248 }