x86, realmode: Move SMP trampoline to unified realmode code
[cascardo/linux.git] / arch / x86 / kernel / realmode.c
1 #include <linux/io.h>
2 #include <linux/memblock.h>
3
4 #include <asm/cacheflush.h>
5 #include <asm/pgtable.h>
6 #include <asm/realmode.h>
7
8 unsigned char *real_mode_base;
9 struct real_mode_header real_mode_header;
10
11 void __init setup_real_mode(void)
12 {
13         phys_addr_t mem;
14         u16 real_mode_seg;
15         u32 *rel;
16         u32 count;
17         u32 *ptr;
18         u16 *seg;
19         int i;
20
21         struct real_mode_header *header =
22                 (struct real_mode_header *) real_mode_blob;
23
24         size_t size = PAGE_ALIGN(header->end);
25
26         /* Has to be in very low memory so we can execute real-mode AP code. */
27         mem = memblock_find_in_range(0, 1<<20, size, PAGE_SIZE);
28         if (!mem)
29                 panic("Cannot allocate trampoline\n");
30
31         real_mode_base = __va(mem);
32         memblock_reserve(mem, size);
33
34         printk(KERN_DEBUG "Base memory trampoline at [%p] %llx size %zu\n",
35                real_mode_base, (unsigned long long)mem, size);
36
37         memcpy(real_mode_base, real_mode_blob, size);
38
39         real_mode_seg = __pa(real_mode_base) >> 4;
40         rel = (u32 *) real_mode_relocs;
41
42         /* 16-bit segment relocations. */
43         count = rel[0];
44         rel = &rel[1];
45         for (i = 0; i < count; i++) {
46                 seg = (u16 *) (real_mode_base + rel[i]);
47                 *seg = real_mode_seg;
48         }
49
50         /* 32-bit linear relocations. */
51         count = rel[i];
52         rel =  &rel[i + 1];
53         for (i = 0; i < count; i++) {
54                 ptr = (u32 *) (real_mode_base + rel[i]);
55                 *ptr += __pa(real_mode_base);
56         }
57
58         /* Copied header will contain relocated physical addresses. */
59         memcpy(&real_mode_header, real_mode_base,
60                sizeof(struct real_mode_header));
61
62 #ifdef CONFIG_X86_32
63         *((u32 *)__va(real_mode_header.startup_32_smp)) = __pa(startup_32_smp);
64         *((u32 *)__va(real_mode_header.boot_gdt)) = __pa(boot_gdt);
65 #else
66         *((u64 *) __va(real_mode_header.startup_64_smp)) =
67                 (u64) __pa(secondary_startup_64);
68
69         *((u64 *) __va(real_mode_header.level3_ident_pgt)) =
70                 __pa(level3_ident_pgt) + _KERNPG_TABLE;
71
72         *((u64 *) __va(real_mode_header.level3_kernel_pgt)) =
73                 __pa(level3_kernel_pgt) + _KERNPG_TABLE;
74 #endif
75 }
76
77 /*
78  * set_real_mode_permissions() gets called very early, to guarantee the
79  * availability of low memory.  This is before the proper kernel page
80  * tables are set up, so we cannot set page permissions in that
81  * function.  Thus, we use an arch_initcall instead.
82  */
83 static int __init set_real_mode_permissions(void)
84 {
85         size_t all_size =
86                 PAGE_ALIGN(real_mode_header.end) -
87                 __pa(real_mode_base);
88
89         set_memory_x((unsigned long) real_mode_base, all_size >> PAGE_SHIFT);
90         return 0;
91 }
92
93 arch_initcall(set_real_mode_permissions);