C++

多态与虚函数

  • 什么是多态?C++的多态是如何实现的?

答:所谓多态,就是同一个函数名具有多种状态,或者说一个接口具有不同的行为;C++的多态分为编译时多态和运行时多态,编译时多态也称为为静态联编,通过重载和模板来实现,运行时多态称为动态联编,通过继承和虚函数来实现。

  • 虚函数的实现机制是什么?

答:虚函数是通过虚函数表来实现的,虚函数表包含了一个类(所有)的虚函数的地址,在有虚函数的类对象中,它内存空间的头部会有一个虚函数表指针(虚表指针),用来管理虚函数表。当子类对象对父类虚函数进行重写的时候,虚函数表的相应虚函数地址会发生改变,改写成这个虚函数的地址,当我们用一个父类的指针来操作子类对象的时候,它可以指明实际所调用的函数。

  • 虚函数是存在类中还是类对象中(即是否共享虚表)?

答:存在类中,不同的类对象共享一张虚函数表(为了节省内存空间)。

  • 在基类的构造函数和析构函数中调用虚函数会怎么样

答:语法上没有问题,但从效果上看,不能实现多态;因为调用构造函数的时候,是先进行父类成分的构造,再进行子类的构造。在父类构造期间,子类的特有成分还没有被初始化,此时下降到调用子类的虚函数,使用这些尚未初始化的数据一定会出错;同理,调用析构函数的时候,先对子类的成分进行析构,当进入父类的析构函数的时候,子类的特有成分已经销毁,此时是无法再调用虚函数实现多态的。

  • 虚函数关键字virtual能加到构造函数和析构函数前面吗?

构造函数不行。当构造函数被调用时,基类的构造函数已经开始执行,但派生类的构造函数尚未执行。因此,虚函数的动态绑定机制并不会生效。

析构函数可以。将析构函数声明为虚函数可以确保当通过基类指针删除对象时,派生类的析构函数会被正确调用(而不是调用基类虚构函数),确保派生类的资源被清理。

关键字

new/delete 和 malloc/free

C使用malloc/free,C++使用new/delete,前者是C语言中的库函数,后者是C++语言的运算符,对于自定义对象,malloc/free只进行分配内存和释放内存,无法调用其构造函数和析构函数,只有new/delete能做到,完成对象的空间分配和初始化,以及对象的销毁和释放空间,不能混用,具体区别如下:

(1)new分配内存空间无需指定分配内存大小,malloc需要;

(2)new返回类型指针,类型安全,malloc返回void*,再强制转换成所需要的类型;

(3)new是从自由存储区获得内存,malloc从堆中获取内存;

(4)对于类对象,new会调用构造函数和析构函数,malloc不会

如果把delete this写入析构函数中,这种写法是否正确?

delete this 是一种非常危险的操作,在析构函数中写 delete this 是错误的做法,可能导致重复释放、未定义行为甚至程序崩溃。

delete this写入成员函数?

在成员函数中执行 delete this 后,对象已经被销毁,this 所指向的内存已经无效了,不能再访问它的任何成员,否则就是未定义行为。

static

static即静态的意思,可以对变量和函数进行修饰。分三种情况:

(1)当用于文件作用域的时候(即在.h/.cpp文件中直接修饰变量和函数),static意味着这些变量和函数只在本文件可见,其他文件是看不到也无法使用的,可以避免重定义的问题。

(2)当用于函数作用域时,即作为局部静态变量时,意味着这个变量是全局的,只会进行一次初始化,不会在每次调用时进行重置,但只在这个函数内可见。

(3)当用于类的声明时,即静态数据成员和静态成员函数,static表示这些数据和函数是所有类对象共享的一种属性,而非每个类对象独有。

(4)static变量在类的声明中不占用内存,因此必须在.cpp文件中定义类静态变量以分配内存。文件域的静态变量和类的静态成员变量在main执行之前的静态初始化过程中分配内存并初始化;局部静态变量在第一次使用时分配内存并初始化。

智能指针

内容

智能指针主要解决一个内存泄露的问题,它可以自动地释放内存空间。因为它本身是一个类,当函数结束的时候会调用析构函数,并由析构函数释放内存空间。智能指针分为共享指针(shared_ptr), 独占指针(unique_ptr)和弱指针(weak_ptr):

(1)shared_ptr ,多个共享指针可以指向相同的对象,采用了引用计数的机制,当最后一个引用销毁时,释放内存空间;

(2)unique_ptr,保证同一时间段内只有一个智能指针能指向该对象(可通过move操作来传递unique_ptr);

(3)weak_ptr,用来解决shared_ptr相互引用时的死锁问题,如果说两个shared_ptr相互引用,那么这两个指针的引用计数永远不可能下降为0,资源永远不会释放。它是对对象的一种弱引用,不会增加对象的引用计数,和shared_ptr之间可以相互转化,shared_ptr可以直接赋值给它,它可以通过调用lock函数来获得shared_ptr。

只要使用智能指针,一定不会发生内存泄漏吗

在某些情况下,即使使用智能指针,也可能发生内存泄漏。以下是几种可能导致内存泄漏的情况:

  1. 循环引用(Cyclic References):当两个或多个 shared_ptr 相互持有对方的引用时,它们之间会形成一个循环引用,这样就会导致它们的引用计数永远不会归零,从而无法释放内存。

    为打破循环引用,可以使用 std::weak_ptrweak_ptr 不参与引用计数,因此不会增加对象的引用计数,避免了循环引用的发生。

  2. shared_ptr 的不当使用:手动管理一个对象的内存,或者 shared_ptr 被错误地拷贝或赋值,可能会造成预期外的行为。

  3. 忘记释放资源(管理其他资源):智能指针管理的是内存,但如果对象管理了其他资源(如文件句柄、网络连接等),智能指针并不会自动管理这些资源,可能会导致资源泄漏。

    对于非内存资源,可以通过自定义删除器(deleter)来确保这些资源在智能指针生命周期结束时被正确释放。

编译链接原理

答:包括四个阶段:预处理阶段、编译阶段、汇编阶段、连接阶段。

(1)预处理阶段处理头文件包含关系,对预编译命令进行替换,生成预编译文件;

(2)编译阶段将预编译文件编译,生成汇编文件(编译的过程就是把预处理完的文件进行一系列的词法分析,语法分析,语义分析及优化后生成相应的汇编代码);

(3)汇编阶段将汇编文件转换成机器码,生成可重定位目标文件(.obj文件)(汇编器是将汇编代码转变成机器可以执行的命令,每一个汇编语句几乎都对应一条机器指令。汇编相对于编译过程比较简单,根据汇编指令和机器指令的对照表一一翻译即可);

(4)链接阶段,将多个目标文件和所需要的库连接成可执行文件(.exe文件)。

内存问题

C++中是如何做内存管理和释放的

  1. 内存分区与作用域:

    C++ 程序运行时的内存大致分为以下几部分:

    区域示例生命周期
    栈区局部变量、函数参数自动分配,自动释放
    堆区new/malloc 分配的内存手动释放
    静态区staticglobal 变量程序运行时一直存在
    常量区字符串字面量、const 全局变量程序运行时一直存在
    代码区函数体、指令集程序只读
  2. 早期手动分配与释放

    使用newdelete;使用mallocfree

  3. 自动管理机制(RAII + 智能指针)

    智能指针功能描述
    std::unique_ptr独占所有权,不能复制
    std::shared_ptr引用计数共享所有权
    std::weak_ptr弱引用,防止循环引用
  4. 一些新特性

    ​ C++11 引入了移动语义(std::move)、智能指针、nullptr 替代 NULL

    ​ C++17 / 20 进一步强化自动生命周期管理,推荐优先使用栈对象 + 智能指针组合

总的来说,C++ 的内存管理可以是手动的,也可以是自动的。手动管理通过 new/deletemalloc/free,但容易出错;现代 C++ 倡导使用 RAII 和智能指针 来自动管理内存,避免内存泄漏。栈区变量生命周期自动管理,堆区则需要程序员显式释放或通过智能指针托管。

内存分区

(1)堆,使用malloc、free动态分配和释放空间,能分配较大的内存;

(2)栈,为函数的局部变量分配内存,能分配较小的内存;

(3)全局/静态存储区,用于存储全局变量和静态变量;

(4)常量存储区,专门用来存放常量;

(5)自由存储区:通过new和delete分配和释放空间的内存,具体实现可能是堆或者内存池。

内存对齐

内存泄漏

内存泄漏是 C++ 编程中常见且严重的问题,会导致程序性能下降、崩溃或系统资源耗尽。要解决内存泄漏问题,可以通过以下方式:

  • 使用智能指针来自动管理内存。
  • 小心指针的使用,避免丢失引用。
  • 手动释放动态分配的内存。
  • 使用工具如 Valgrind 和 AddressSanitizer 检查内存泄漏。
  • 遵循 RAII 模式和避免循环引用。

其他内存问题

  1. 野指针:重复释放同一块内存;

Js

  1. 面试官:什么是防抖和节流?有什么区别?如何实现? | web前端面试 - 面试官系列 (vue3js.cn)

参考资料

  • 【游戏开发面经汇总】- 计算机基础篇 - 知乎 (zhihu.com)

八股

哈希表

实现原理:

哈希函数的作用是将给定的键转换为一个数组的索引。哈希函数接收一个输入并输出一个整数,这个整数在哈希表中对应的索引位置。

哈希函数的设计要确保以下几点:

  • 均匀分布:哈希函数应当能够将输入均匀地映射到表中的各个桶位置,减少碰撞的概率。
  • 低冲突:哈希函数应尽量减少不同的键映射到同一个位置(即哈希冲突)。

冲突解决方式:

  1. 链接法:每个桶是一个链表,发生冲突就在该位置尾插冲突元素。
  2. 开放地址法:开放地址法是一种将所有元素直接存储在哈希表数组中的方法,不使用链表来处理冲突。当发生冲突时,系统会查找哈希表中的下一个空桶位置,并将元素插入到该位置。常见的开放地址法有以下几种:
    • 线性探测(Linear Probing):当发生冲突时,检查当前位置的下一个位置,直到找到空位置为止。
    • 二次探测(Quadratic Probing):探测时按照二次方规律进行,即 i=(h+f(i))mod  TableSizei = (h + f(i)) TableSizei=(h+f(i))modTableSize,其中 f(i)f(i)f(i) 是一个平方数序列。
    • 双重哈希(Double Hashing):使用第二个哈希函数来决定下一个探测位置。

堆和栈

栈是一种 先进后出数据结构,通常用于存储局部变量和函数调用信息(如函数的参数、返回地址等)。栈由操作系统管理,程序的执行栈在函数调用时不断压入和弹出。

堆是一块由程序员显式管理的内存区域,用于存储动态分配的内存。程序员通过 new(C++)或 malloc(C)等函数申请内存,并在使用完毕后,通过 delete(C++)或 free(C)手动释放这部分内存。

特性栈(Stack)堆(Heap)
内存分配方式自动分配和回收,遵循先进后出(LIFO)规则动态分配,由程序员手动管理
内存大小内存有限,通常较小(几 MB)内存较大,通常受限于操作系统的总内存大小
生命周期随着函数调用的开始和结束自动管理由程序员控制,直到显式释放
分配和回收速度快,栈指针的移动慢,涉及内存查找和分配
存储内容存储局部变量、函数参数、返回地址等存储动态分配的对象(如 newmalloc 创建的)
内存溢出栈溢出(stack overflow),当栈的空间用完时堆溢出(heap overflow),当堆空间不足时
内存管理方式由操作系统自动管理需要手动管理,程序员负责内存的分配和释放
内存的访问模式由操作系统管理,分配紧凑且连续(低碎片化)内存是分散的,可能会导致碎片化

算法题

链表

  1. 约瑟夫环问题的三种解法讲解 - 力扣(LeetCode):环形链表模拟,有序集合模拟,数学归纳推导

二叉树

  1. 105. 从前序与中序遍历序列构造二叉树 - 力扣(LeetCode)
  2. 106. 从中序与后序遍历序列构造二叉树 - 力扣(LeetCode)
  3. 889. 根据前序和后序遍历构造二叉树 - 力扣(LeetCode)

哈希

  1. 594. 最长和谐子序列 - 力扣(LeetCode)

二分查找

  1. 153. 寻找旋转排序数组中的最小值 - 力扣(LeetCode)
  2. 【不用库函数求】69. x 的平方根 - 力扣(LeetCode):也能用牛顿迭代

分治法

  1. 12.4 汉诺塔问题 - Hello 算法 (hello-algo.com)

智力题

  1. 将一根木棍分成三段,求这三段构成三角形的概率

图形学

渲染管线

渲染管线的构成

在概念上可以将图形渲染管线分为四个阶段:

  1. 应用程序阶段:在CPU端完成,该阶段主要是在软件层面上执行的一些工作,包括空间加速算法、视锥剔除、碰撞检测、动画物理模拟等。

    大体逻辑是,执行视锥剔除,查询出可能需要绘制的图元并生成渲染数据,设置渲染状态和绑定各种Shader参数,调用DrawCall,交给GPU渲染。

  2. 几何处理阶段:负责大部分多边形操作和顶点操作,将三维空间的数据转换为二维空间的数据。

    1. 顶点处理阶段:执行顶点变换和着色的工作,通过MVP矩阵将顶点从局部空间转换到屏幕裁剪空间,方便后续转为NDC坐标。

      还可以进行顶点着色计算,如Flat shading和Gouraud Shading。

      之后有一些可选阶段,例如曲面细分等。

    2. 裁剪阶段:裁剪掉不在屏幕内部的图元,由硬件控制。

      在CPU已经视锥体剔除了,为什么这里还要裁剪?

      主要是两次裁剪的粒度不同。CPU端的视锥体剔除是根据物体包围盒是否在视锥体内,针对整个物体裁剪;而这里的裁剪则是针对图元单位裁剪。

    3. 屏幕映射阶段:将之前步骤得到的坐标映射为标准屏幕坐标NDC。

  3. 光栅化阶段:将图元离散化成片段的过程.

    1. 三角形设置:计算出三角形的一些重要数据(如三条边的方程、深度值等)以供三角形遍历阶段使用,这些数据同样可用于各种着色数据的插值。
    2. 三角形遍历:找到哪些像素被三角形所覆盖,并对这些像素的属性值进行插值。通过判断像素的中心采样点是否被三角形覆盖来决定该像素是否要生成片段。通过三角形三个顶点的属性数据,插值得到每个像素的属性值。此外透视校正插值也在这个阶段执行。
  4. 像素处理阶段:给每一个像素正确配色,最后绘制出整幅图。

    1. 像素着色:进行光照计算和阴影处理,决定屏幕像素的最终颜色。各种复杂的着色模型、光照计算都是在这个阶段完成。
    2. 测试合并:包括各种测试和混合操作,如裁剪测试、透明测试、模板测试、深度测试以及颜色混合等。经过了测试合并阶段,并存到帧缓冲的像素值,才是最终呈现在屏幕上的图像。

各种测试及其顺序

  1. 裁剪测试:在裁剪测试中,允许程序员开设一个裁剪框,只有在裁剪框内的片元才会被显示出来,在裁剪框外的片元皆被剔除。裁切测试可以避免当视口比屏幕窗口小时造成的渲染浪费问题。

  2. 透明测试(Alpha测试):根据物体的透明度来决定是否渲染。

  3. 模板测试:根据物体的位置范围决定是否渲染。

  4. 深度测试:根据物体的深度决定是否渲染。

前向渲染管线和延迟渲染管线

前向渲染是一种传统方式,每绘制一个物体就计算光照并输出像素颜色,优点是流程简单,容易支持透明和抗锯齿; 延迟渲染则把几何信息和光照解耦,先写入 G-buffer,再统一光照,适合大量光源的场景,但处理透明和 MSAA 比较复杂。 两者各有优缺点,现代引擎(比如 Unreal)也常用混合管线,根据对象类型选择前向或延迟。

在前向渲染管线下,如何处理大量点光源问题?

前向渲染本身在处理大量点光源时容易遇到性能瓶颈,因为每个像素可能需要对多个光源做光照计算。为了解决这个问题,有几种优化策略可以使用:

  • Light Culling(光源剔除)

    在渲染之前,为每个物体或每个屏幕分区(比如 tile)确定哪些光源真正影响它。只对这些光源做光照计算,避免冗余遍历。

    • 可以基于距离、包围盒、遮挡信息做裁剪
    • 常见做法:基于视锥体剔除 + 包围球光照范围
  • Forward+(或 Tiled Forward Shading)

    这是传统前向渲染的一个现代变种,结合了延迟渲染的 tile-based 思想:

    1. 将屏幕分成 tile(比如 16x16 像素块);
    2. 用计算着色器构建每个 tile 内影响它的光源列表;
    3. 渲染时只考虑当前 tile 的光源,显著减少计算量。

    优点:

    • 保留前向渲染对透明/抗锯齿的支持
    • 同时支持大量动态光源
  • 使用 Clustered Forward Rendering(高级优化)

    类似 Forward+,但将屏幕按空间划分成 3D 网格(cluster),再为每个 cluster 绑定影响光源,适合处理光源数量更极端的场景。

  • 光源分层 + 预计算技术

    • 静态光源 → 使用 Lightmap 或 Spherical Harmonics 预烘焙
    • 仅对动态光源使用实时光照计算

    这可以大幅减轻每帧的光照压力。

GPU-Driven

在调用GPU绘制指令之前,渲染所需的资源需要经过一定程度的处理,包括合批、剔除、搜集DrawCall等。传统引擎中,这个流程是在CPU端完成的,称之为“CPU Driven”。

随着场景复杂度的要求以及CPU并发上限的限制,CPU Driven迎来了性能瓶颈。另一方面,GPU硬件的提升以及GPU天然的高并发特性,原本在CPU上处理的复杂工作可以搬迁到GPU上处理,也就是GPU Driven。

PBR

概念

基于物理的渲染,是指在渲染过程中,有关材质、光照、相机、光传输等都要基于准确的物理定律。

实现

使用Cook-Torrance模型实现PBR,这个BRDF模型有漫反射和镜面反射两部分组成: 首先是漫反射项: 其中是表面颜色,是常数。可在预处理后的环境贴图(即辐照度贴图)中采样获取。除以是为了对漫反射光进行标准化,因为前面含有BRDF的积分方程受影响。

然后是镜面反射项: 包含三个函数,此外分母部分还有一个标准化因子。三个函数如下:

  • 法线分布函数:Normal Distribution Function,估算在受到表面粗糙度的影响下,朝向方向与半程向量一致的微表面的数量。
  • 菲涅尔函数Fresnel Equation,描述的是在不同的表面角下表面所反射的光线所占的比率。
  • 几何函数Geometry Function,描述了微表面自成阴影的属性。当一个平面相对比较粗糙的时候,平面表面上的微表面有可能挡住其他的微表面从而减少表面所反射的光线。

这三个函数有很多实现。UE4 中所使用的是:

  • D 项使用 Trowbridge-Reitz GGX,
  • F 项使用 Fresnel-Schlick 近似,
  • G 项使用 Smith’s Schlick-GGX。

阴影技术

Shadow Mapping

原理

  1. 从每个光源的位置渲染一遍场景,将得到的深度信息写入到贴图中,
  2. 正常渲染一次场景,利用得到的shadowmap来判断哪些片段落在了阴影中。

常见问题

  1. 光源VP矩阵的选择:平行光选用正交投影,点光源和聚光灯选用透视投影。需要注意的是,在透视投影得到的深度贴图中,深度值是 非线性的,在正式使用之前需要进行线性化操作。

    // 线性化操作
    float LinearizeDepth(float depth)
    {
        float z = depth * 2.0 - 1.0; // Back to NDC 
        return (2.0 * near_plane * far_plane) / (far_plane + near_plane - z * (far_plane - near_plane));
    }
  2. 阴影抖动问题:可以通过偏移技术来解决,增加一个bias来比较片段深度,还有更好的一种方式是使用一种自适应偏移的方案,基于斜率去计算当前深度要加的偏移;

  3. 阴影锯齿问题:可以使用百分比渐进过滤(PCF)技术进行解决:从深度贴图中多次采样,每次采样坐标都稍有些不同,比如上下左右各取9个点进行采样(即一个九宫格),最后加权平均处理,就可以得到柔和的阴影。标准PCF算法采样点的位置比较规则,最后呈现的阴影还是会看出一块一块的Pattern(图块),可以采用一些随机的样本位置,比如Poisson Disk来改善PCF的效果.

  4. 采样Shadowmap的时候,需要将标准设备坐标系的坐标范围由[-1,1]修正到[0,1],否则贴图的坐标范围是[0,1],会采样错误。

CSM

如果分层的Shadow Map过多,如何优化避免每帧都全部绘制以上贴图?

可以采用 逐层更新(cascade update scheduling)静态对象缓存(shadow map reuse)视野/相机运动感知更新等方式,避免每帧全部更新 8 层,提高性能:

  • 按需更新 Cascade(Update Scheduling)

    • 不同层级的 Shadow Map 作用于不同距离:
      • 近层(C0~C2):更新频率高,每帧都更新;
      • 中远层(C3~C7):距离远,可每几帧更新一次;
  • 运动检测(Camera Movement-aware Update)

    • 只有相机移动超过一定阈值时才更新对应层;
    • 中远层因为几何投影变化缓慢,可延迟更新;
    • 甚至可以用视锥包围盒与上次投影比较判断是否重建 Shadow Map。

    ✅ 原理参考:Temporal CSM / Lazy Update CSM

  • 静态对象 Shadow Cache(Shadow Map Reuse)

    • 将场景中静态物体的 Shadow 渲染结果缓存;
    • 每帧合并动态物体的阴影渲染结果;
    • 静态层用多层贴图叠加方式复用之前的结果,节省大量 draw call;

    ✅ 技术:Shadow Atlas + Static Shadow Cache

  • 层级分辨率动态控制

    • 越远的 Cascade 阴影图分辨率降低(例如 2048 → 1024 → 512);
    • 节省内存带宽和渲染时间;
    • 有些引擎支持按 Cascade 距离动态调整分辨率。
  • GPU Compute Raster / Ray Query Shadows(可选方向)

    • 使用 Compute Shader 或 DXR/HW RayTracing 加速中远层级阴影生成;
    • 也可用于软阴影模糊阶段优化。

CSM 的核心优化策略是“按需更新 + 静态缓存”,我们并不需要每帧更新所有 Cascade,而是基于 层级权重、相机移动、物体是否静态 做智能判断,实现性能与质量的最佳平衡。

PCSS

Mipmap

概念

Mipmap(多级渐远纹理) 是一种优化纹理采样性能和质量的技术,它为一张原始纹理生成多个尺寸逐级减半的版本(通常是 ),用于根据视距动态选择最合适的纹理分辨率。

原理

Mipmap 是一组纹理链:

  • Level 0:原始大小
  • Level 1:宽高减半
  • Level 2:继续减半,直到 1×1

GPU 根据片元与相机的距离(或者像素覆盖率),自动选择合适的 Mipmap Level 采样;

结合 三线性过滤(Trilinear Filtering) 可实现 Level 之间的平滑过渡。

优点

优势类型说明
✅ 提升性能远处使用小纹理,减少内存带宽消耗
✅ 消除闪烁降低 Moiré、锯齿、采样混叠
✅ 提升缓存命中率更小贴图更可能被 GPU 纹理缓存命中

应用

  1. 纹理采样优化(默认用途)
  • 所有表面贴图几乎都启用 Mipmap;
  • 自动适应不同视角、缩放距离。
  1. 阴影贴图优化(Shadow Map Mipmap)
  • 用于软阴影模糊(PCF、VSM、ESM 等);
  • 提供多层模糊强度。
  1. LOD 选择辅助(物体/贴图切换)
  • Mipmap Level 可作为对象或材质 LOD 的参考依据;
  • 用于高阶渲染算法如 POM(Parallax Occlusion Mapping)。
  1. GPU 粒子模拟、环境遮蔽(AO)等
  • Mipmap 被用于高斯模糊、深度模糊时的分级;
  • G-Buffer 的 Blur Pass 或 AO Pass 常使用。

问题

512x512的贴图,开启Mipmap后大小多少

开启 Mipmap 后,会额外生成 个等级的贴图,每一级分辨率是前一级的 ,最终所有 Mipmap 的内存总量大约是原图的 1/3 额外开销,即总共是原贴图的 倍大小

对一张 的贴图,开启 Mipmap 后总内存大约是原图的 倍,这个增长是线性可控的,也是为什么现代图形引擎几乎默认启用 Mipmap 的原因。

抗锯齿

光栅化的时候,是以像素中心点是否被三角形覆盖来决定是否生成片段,因此有些片段覆盖了采样点就生成,有些没有覆盖就不生成,最终导致了锯齿现象。

SSAA

向原画面大 x 倍的画面进行降采样,性能要求高。

MSAA

只对必要的地方(如边缘处)进行单画面 x 倍采样,也有一定性能要求,尤其是场景三角形数量极大时。

FXAA

即 Fast Approximate AA,快速近似 AA。它将每帧画面的边界提取出来,然后对其进行插值处理以达到快速近似 AA 的目的。

步骤:

  1. 寻找整体画面边界:将画面的颜色空间从 RGB 转换到 HSL/HSV,根据亮度寻找;
  2. 计算 AA 的混合朝向:对边界进行水平和垂直方向的滤波计算,比较二者的值得出朝向,方便进行后序混合操作;
  3. 搜寻与朝向点相邻的部分边界:使用边界搜寻算法找到和朝向点相邻的部分边界;
  4. 计算混合程度:知道朝向和部分边界后,就能求边界点沿朝向采样的程度了。利用类似相似三角形的原理,通过边界信息求自身的偏移值。

TAA

利用时序上的数据(上一帧信息 + Motion Vector)进行 AA 操作。

后处理技术

模糊

高斯模糊

优化

在处理千万级别顶点数量的大型3D场景时,如何提升渲染效率和优化用户交互体验

千万级顶点的 3D 场景中,可以通过 渲染优化交互优化 结合使用,以提高效率:

  1. 渲染优化

    • 批处理(Instancing、Mesh Merging)
    • 视锥裁剪(Frustum Culling)
    • LOD 细节控制
    • 纹理优化(Mipmap、压缩)
    • 计算着色器加速
  2. 交互优化

    • 多线程渲染
    • 异步加载
    • 遮挡剔除(Occlusion Culling)

物体多、贴图多,Mipmap 也多时,如何优化加载与渲染性能?

贴图资源多时,可通过 贴图合并(Texture Atlas)按需加载(Streaming Mipmap)贴图 LOD 管理压缩纹理格式 等手段减少内存占用、带宽压力和加载时长,提高渲染效率。

  1. Texture Streaming(按需加载)

✅ 核心思想:只加载当前视野所需的贴图层级(尤其是近景高分 Mipmap),远处或遮挡的使用低分 LOD 或空白贴图。

  • 引擎根据相机位置 + 每帧资源预算进行动态加载;
  • LOD 越低,贴图越小,加载越快;
  • Unreal、Unity 都自带 Texture Streaming 系统。

📌 优化点:

  • 限制 Streaming Pool 大小,防止爆显存;
  • 避免每帧过多 Streaming 造成卡顿(异步加载 + Streaming Scheduler)
  1. 虚拟纹理(Virtual Texturing / VT)

✅ 核心思想:类似分页内存系统,纹理切成 Tile(页),运行时只加载屏幕上可见部分。

  • 每张贴图有页表(Page Table),GPU 动态从磁盘/内存加载必要 Mipmap Tile;
  • UE5 的 Virtual TextureSVT(Sparse Virtual Texture) 是典型实现;
  • 可同时管理海量贴图(超高分地形、角色等)且不卡顿。

📌 优点:

  • GPU 显存占用极低;
  • 支持非常大的贴图集,如 8K、16K 分辨率资源。
  1. 压缩纹理格式(如 BCn / ASTC / ETC2)

✅ 使用 GPU 原生支持的压缩纹理格式,可以极大减小贴图和 Mipmap 的显存占用,提升加载速度。

格式平均压缩比支持平台
DXT / BC1~BC76:1 ~ 4:1PC, Console
ASTC灵活移动端, Vulkan
ETC2OpenGL ESAndroid, WebGL2

📌 优化点:

  • 所有 Mipmap 一并压缩,解压由 GPU 自动完成;
  • 配合 Streaming 效果最佳。
  1. Texture Atlas(合图)

✅ 将多张小贴图合并成一张大贴图,减少 draw call 和贴图绑定开销。

  • Sprite、UI、小物件常用;
  • 需注意 UV 重映射;
  • 会限制部分 Mipmap 使用(局部失效)
  1. 物体 LOD + 贴图 LOD 联动

✅ 对远距离模型使用更低分辨率的 mesh + 更低级别贴图(LOD 与 Mipmap 联动);

  • UE / Unity 支持基于距离自动切换 mesh + material;
  • 避免加载和渲染高分贴图。
  1. 加载顺序优化 + 预热
  • 首帧/场景切换提前加载所需贴图 Mipmap;
  • 常见的贴图优先排在 Asset Bundle 前列;
  • 异步加载与 GPU 预热配合,避免卡顿。

面对贴图和 Mipmap 多的复杂场景,我们可以从“加载策略、压缩格式、内存调度和 LOD 体系”四个维度全面优化,既保证渲染质量,也确保性能稳定。

数学

向量

点乘, 叉乘的公式和几何意义

点乘: 使用点乘可以:

  • 求一个向量到另一个向量的投影;
  • 判断两向量是否同方向;
  • 找到两向量夹角;
  • 计算向量大小;
  • 沿某向量进行正交分解;

叉乘: 使用叉乘可以:

  • 判断点在三角形的内/外侧
  • 判断点在直线的左/右侧

向量叉乘的方向是通过右手定则(Right-hand rule)来确定的。

矩阵

3D的SRT变换

缩放:

绕x轴旋转

前面的文章说过,矩阵其实是向量的数组,因此我们可以用三个轴的方向向量来表示一个旋转矩阵。按照上图描述,基本旋转矩阵为: 用齐次坐标描述:

类似的,绕y轴旋转为:

绕z轴旋转为:

平移:

通过SRT变换,也就是MVP变换中的M,将模型的点由局部坐标转换为世界坐标。

常见问题:

  1. 是否可逆:SRT变换属于线性变换,线性变换与平移变换合起来为仿射变换,它们都是可逆的(除了投影变换外都可逆)。
  2. SRT和TRS的结果是否相同:结果并不一样,这是因为像旋转和缩放这样的转换是相对于坐标系原点进行的。 缩放以原点为中心的对象产生的结果不同于缩放远离原点的对象所产生的结果。 同样,旋转以原点为中心的对象产生的结果不同于旋转远离原点的对象所产生的结果。

物理引擎

像彩虹六号中的墙体破碎那种“非实时”物理,是怎么实现的?

这类墙体破坏通常采用预计算(预烘焙)破坏模型 + 状态触发系统,而不是实时物理模拟。游戏中根据玩家行为触发“已准备好的破坏效果”,既节省性能又保持视觉真实。

类型技术
可破坏墙体预定义破坏块 + 逻辑剖面系统
穿孔弹道弹道系统确定命中点 + 改变 mesh 或贴图
大块破坏使用“事先建模的”碎块 + 动画或物理动态开启
网格更新使用 Geometry Collection 或 Dynamic Mesh 替换

这类非实时破坏系统的关键在于“预定义资源 + 精准触发逻辑”的组合,通过欺骗视觉和节省计算,实现游戏中的“高质量破坏体验”,是 AAA 战术射击类游戏物理设计中的常规手段。

如果墙体破碎后产生10万个碎片,如何优化

如果同时启用10万个刚体和渲染实体,性能会崩溃。实际中会通过 碎片分批激活、距离剔除、粒子混合、LOD 替换 等多种策略控制性能负载:

  1. 延迟激活 / 动态启用碎片物理
  • 默认碎片处于静态不可动状态(sleep/disabled)
  • 玩家靠近或炸到时才启用一小部分碎片的刚体模拟;
  • 没有参与交互的碎片不会占用 CPU/GPU。
  1. 远距离碎片合并 / 粒子替代
  • 离玩家很远或不在视线内的碎片,用粒子系统低面数代理 mesh替代;
  • 也可将多个碎片合并为一个远 LOD 模型,节省 draw call;
  1. GPU Instance 渲染 / Cluster Culling
  • 渲染层用 GPU Instancing 或 Nanite 类似机制批量绘制碎片;
  • 不可见/小碎片按 cluster 剔除或合批处理;
  1. 生命周期控制
  • 每个碎片有生命期:比如炸飞 5 秒后自动移除或回收;
  • 长时间不动碎片转为静态 mesh,不参与物理计算。
  1. LOD 切换+贴图替代
  • 某些破坏只用贴图变化(decals),不是真的 mesh 替换;
  • 或者大碎块逐步替换成静态贴图/模型。

面对大规模碎片,我们的目标不是“每个都物理模拟”,而是“让玩家看起来像是全部真实破碎”,通过分批启用、实例渲染、距离控制等手段做到了视觉冲击力与性能之间的最佳平衡。

游戏引擎

UE5新特性

Nanite:虚拟微多边形几何体技术

Nanite 是 UE5 引入的一项虚拟化几何体系统,允许引擎实时渲染数十亿个多边形的高精度模型,无需手动创建 LOD(细节层次)或担心绘制调用数量。这使得开发者可以直接使用高精度模型,极大地提高了渲染效率和视觉质量。

原理

分为离线预处理和运行时渲染两部分:

  1. 预处理

    • Cluster切分:将模型拆分为若干Cluster面片块,并给这些Cluster分组。

      对于一个模型,将其Mesh中每相互临近的128个Triangle组合在一个结构下,组合后的结构便称之为Cluster。如下图中一个个色块即为一个Cluster,每个Cluster内包含了128个Triangle。这个Cluster的分割过程通过Metis库完成(设定为128个Triangle的原因是为了迎合Memory Cache)

      此外,数个Cluster(8-32个)又组成了另一种结构,称之为Cluster Group

    • 生成LOD:在分组Cluster作为LOD0的基础上,自动生成其他等级的分组Cluster。

      模型被Cluster Group切分后,便能更为细致地去控制局部的LOD。这意味着切换LOD不再是切换整个模型,而是单个模型的局部,也就是Cluster Group切换LOD。

      怎么生成这些LOD的数据?

      首先以Cluster Group为单位,对Cluster Group结构内的Mesh进行简化(这个Mesh就是Group内的所有Cluster的Triangle总和,简化算法为Quadric Error Matrics)。在得到了低精度的Mesh之后,重新将这些Triangle进行组合,变成多个Cluster。最后再将多个Cluster重新组合为Cluster Group。

      这便是下一级LOD的数据。等于在获得低精度的Mesh之后,重新运行了第一步的Cluster切分。

      为什么不用通过简化Cluster的方式来生成LOD?

      如果通过此方式生成LOD,会导致在不同LOD等级间Mesh边缘出现裂缝T-Junction现象,为了解决此现象需要退化网格,在简化Mesh时锁住每个Cluster的边缘。但这样的后果就是在简化后,边缘区域依旧是非常复杂的Mesh,而非边缘区却很简单。这会在LOD切换时带来视觉上的异样,况且由于Cluster的数量众多,异样感会特别显著。

    • 构建BVH:为了运行时的剔除工作做准备,需要用BVH的结构来组织Cluster Group。

    • 数据压缩:用高效压缩算法压缩特殊编码的数据。

  2. 运行时

    • GPU Driven 剔除:首先对整个Mesh进行视锥剔除和遮挡剔除,这一步被称作 instancing culling;然后用离线构建好的BVH对Cluster Group进行剔除,这一步被称作 hierarchical/persistent culling;最后对Cluster进行视锥剔除和遮挡剔除,这一步被称作 Cluster Culling
    • 光栅化:对于大面片,使用GPU硬件光栅化;对于小面片,使用Compute shader进行软光栅化(三角形扫描线算法);
    • 输出G-Buffer:将生成的结果Visiblity Buffer转换为G-Buffer。

Lumen:全动态全局光照系统

Lumen 是 UE5 的全局光照解决方案,支持实时的全局光照和反射,无需预先烘焙光照贴图。这使得场景中的光照变化更加自然和动态,提升了视觉真实感。

World Partition:世界分区系统

World Partition 系统重新设计了世界管理方式,将整个世界划分为网格,并根据玩家的位置动态加载和卸载区域。这简化了大规模开放世界的构建和管理,提高了开发效率。

MetaSounds:高级音频系统

MetaSounds 是 UE5 引入的全新音频系统,提供了类似材质编辑器的图形化界面,允许开发者以更精细的方式控制音频行为,实现更复杂的音频效果和响应。

Niagara:模块化粒子特效系统

Niagara 是 UE5 的主要视觉特效系统,取代了 UE4 中的 Cascade。它提供了更强大的粒子控制能力,允许开发者创建复杂的粒子效果,如烟雾、火焰、魔法等。Niagara 使用模块化设计,开发者可以通过图形化界面或脚本编写自定义粒子行为。

Niagara 还支持 GPU 加速和实时预览,使得特效的开发和调试更加高效。

Chaos:全新物理与破坏系统

Chaos 是 UE5 默认的物理引擎,取代了 UE4 中的 PhysX。它提供了更高效的刚体模拟、布料模拟、车辆物理和破坏系统。Chaos 支持实时布娃娃物理(Ragdoll Physics),允许角色在受到力作用时表现出自然的物理反应。

此外,Chaos 还支持大规模场景的物理模拟和网络同步,适用于需要高保真物理效果的游戏和应用。

MegaLights:高性能多光源照明系统

MegaLights 是 UE5.5 中引入的一项新功能,旨在优化动态区域光源的渲染性能。它允许艺术家在场景中放置大量动态且带阴影的区域光源,同时保持较低的性能开销。MegaLights 支持光线追踪阴影,使得使用纹理区域光源等高质量光源成为可能。该技术类似于 NVIDIA 的 RTXDI(RTX Dynamic Illumination)。

MegaLights作为ReGir的变种,通过恒定的GPU开销来支持 [数量无关] 的超大规模灯光的同屏渲染——它每帧每个像素采样的灯光数和发出的光线数均恒定,所以即使灯光数量增加,MegaLights的单帧耗时不增。

参考资料

  • 【游戏开发面经汇总】- 图形学基础篇 - 知乎 (zhihu.com)
  • Nanite解读笔记 - 知乎
  • GPU Driven Render Pipeline - 知乎
  • ChatGPT,DeepSeek等AI
0%