]> asedeno.scripts.mit.edu Git - linux.git/blobdiff - drivers/gpu/drm/i915/gem/i915_gemfs.c
Merge tag 'usercopy-v5.4-rc1' of git://git.kernel.org/pub/scm/linux/kernel/git/kees/linux
[linux.git] / drivers / gpu / drm / i915 / gem / i915_gemfs.c
index 099f3397aadad5820de5093bdcf8ffd4cb1cbbb7..5e6e8c91ab385922cbd88ef5de1dc30e6a16454f 100644 (file)
@@ -20,31 +20,18 @@ int i915_gemfs_init(struct drm_i915_private *i915)
        if (!type)
                return -ENODEV;
 
-       gemfs = kern_mount(type);
-       if (IS_ERR(gemfs))
-               return PTR_ERR(gemfs);
-
        /*
-        * Enable huge-pages for objects that are at least HPAGE_PMD_SIZE, most
-        * likely 2M. Note that within_size may overallocate huge-pages, if say
-        * we allocate an object of size 2M + 4K, we may get 2M + 2M, but under
-        * memory pressure shmem should split any huge-pages which can be
-        * shrunk.
+        * By creating our own shmemfs mountpoint, we can pass in
+        * mount flags that better match our usecase.
+        *
+        * One example, although it is probably better with a per-file
+        * control, is selecting huge page allocations ("huge=within_size").
+        * Currently unused due to bandwidth issues (slow reads) on Broadwell+.
         */
 
-       if (has_transparent_hugepage()) {
-               struct super_block *sb = gemfs->mnt_sb;
-               /* FIXME: Disabled until we get W/A for read BW issue. */
-               char options[] = "huge=never";
-               int flags = 0;
-               int err;
-
-               err = sb->s_op->remount_fs(sb, &flags, options);
-               if (err) {
-                       kern_unmount(gemfs);
-                       return err;
-               }
-       }
+       gemfs = kern_mount(type);
+       if (IS_ERR(gemfs))
+               return PTR_ERR(gemfs);
 
        i915->mm.gemfs = gemfs;