GPU

GPU,全称为图形处理单元(Graphics Processing Unit),是一种专用于处理图形和图像计算的处理器。起初,GPU主要用于图形渲染,但随着计算需求的增加,尤其是在科学计算、深度学习和其他并行计算领域,GPU的通用计算能力逐渐受到重视。

GPU相对于传统的中央处理单元(CPU)在设计上有一些显著的区别。CPU更适用于处理通用的控制流任务,而GPU则专注于高度并行的数据处理。GPU通常拥有大量的小型处理单元,被设计成能够同时处理大量相似的任务,例如图形渲染中的像素计算或深度学习中的矩阵运算。

总体而言,GPU在图形处理领域的成功应用和对并行计算需求的响应使其逐渐演变成为通用计算设备,广泛用于加速各种科学和工程计算应用。

联发科逆袭?Helio P90的AI跑分展示其强大的性能

12月13日,联发科 (MediaTek)在深圳召开了“P90发布会暨全球合作伙伴大会”,这次最新的Helio P90芯片,搭载全新超强的AI引擎 APU 2.0,AI速度大幅度提升。其中,AI性能跑分这一块,通过多个跑分工具展示了目前P90的APU强大的性能。

GPU Raycasting的两种实现方法

Raycasting的核心是从每一个屏幕像素处发射一条光纤,然后让其穿过整个体数据。基于GPU的Raycasting可以独立,并行地计算每条光线,从而能大大提高速度,实现实时绘制效果。绘制时的过程一般是绘制一个长方体,并且以体数据作为三维纹理。

根据光线的方向和终点的确定方法的不同,Raycasting有两种实现:

GPU Raycasting的两种实现方法

1,基于光线起点和相机位置。将相机位置由世界坐标通过模型视图投影矩阵反变换到长方体的局部坐标空间。每个fragment的坐标作为光线的起点,由变换后的相机位置与光线起点确定光线的方向,在沿着光线方向从起点前进时,每到达一个新的点,判断其是否在长方体内,如果不在,则结束这条光线。

什么是离屏渲染?什么情况下会触发?该如何应对?

离屏渲染就是在当前屏幕缓冲区以外,新开辟一个缓冲区进行操作。

离屏渲染出发的场景有以下:
  •   圆角 (maskToBounds并用才会触发)
  •   图层蒙版
  •   阴影
  •   光栅化

为什么要有离屏渲染?

大家高中物理应该学过显示器是如何显示图像的:需要显示的图像经过CRT电子枪以极快的速度一行一行的扫描,扫描出来就呈现了一帧画面,随后电子枪又会回到初始位置循环扫描,形成了我们看到的图片或视频。

为了让显示器的显示跟视频控制器同步,当电子枪新扫描一行的时候,准备扫描的时发送一个水平同步信号(HSync信号),显示器的刷新频率就是HSync信号产生的频率。然后CPU计算好frame等属性,将计算好的内容交给GPU去渲染,GPU渲染好之后就会放入帧缓冲区。然后视频控制器会按照HSync信号逐行读取帧缓冲区的数据,经过可能的数模转换传递给显示器,就显示出来了。具体的大家自行查找资料或询问相关专业人士,这里只参考网上资料做一个简单的描述。

Imagination在 GLOBALFOUNDRIES 2018技术大会上展示多项领先技术

11月1日,GLOBALFOUNDRIES 2018年度技术大会(GTC 2018)在上海卓美亚喜马拉雅酒店举行。GLOBALFOUNDRIES多位高管和技术专家出席会议,与参会的行业和企业嘉宾共同探讨影响半导体价值链的行业趋势,并围绕FinFET、FDX、物联网、5G 、汽车、人工智能、数据中心、边缘计算、下一代无线/光纤连接等行业热门话题进行交流。

Imagination携手Chips&Media提供具有系统级压缩优势的集成化GPU和视频编解码器IP

2018年9月5日——Imagination Technologies与Chips&Media宣布了一项全新的合作,它将为全球客户带来图形处理器(GPU)和视频编解码器(CODEC)领域内行业最佳的半导体知识产权(IP)解决方案。

GPU混合和过度绘制

GPU每一帧可以绘制的像素有一个最大限制(就是所谓的fill rate),这个情况下可以轻易地绘制整个屏幕的所有像素。但是如果由于重叠图层的关系需要不停地重绘同一区域的话,掉帧就可能发生了。