CT图像预处理之窗宽窗位调整
目录1 CT图像的Hu值变换2 CT图像窗宽窗位调整1 CT图像的Hu值变换CT值属于医学领域的概念,通常称亨氏单位(hounsfield unit,HU),反映了组织对X射线的吸收程度。黑影表示低吸收区,即低密度区,如含气体多的肺部;白影表示高吸收区,即高密度区,如骨骼。但是CT 和X线图像相比,CT的密度分辨力高,即有高的密度分辨力(density resolution)。因此,人体软组织的密
目录
1 CT图像的Hu值变换
CT值属于医学领域的概念,通常称亨氏单位(hounsfield unit,HU),反映了组织对X射线的吸收程度。黑影表示低吸收区,即低密度区,如含气体多的肺部;白影表示高吸收区,即高密度区,如骨骼。但是CT 和X线图像相比,CT的密度分辨力高,即有高的密度分辨力(density resolution)。因此,人体软组织的密度差别虽小。吸收系数虽多接近于水,也能形成对比而成像。解剖成像。
灰度值属于计算机领域的概念,指的是单个像素点的亮度,灰度值越大表示越亮。范围一般从0到255,白色为255,黑色为0,故黑白图片也称为灰度图像。
两种最常用的医学图像数据格式:DICOM类型和NIFTI类型
DICOM类型的文件后缀为dcm,常用的python处理库有:SimpleITK,pydicom库
NIFTI类型的文件后缀为nii或nii.gz,常用的python处理库有:SimpleITK,nibabel库
注:无论对于dcm还是nii格式的图片,只要是ct图,为了更好地观察不同器官,都可以选择将储存的原始数据转化为Hu值,因为Hu值即代表了物体真正的密度。
对于nii格式的图片,SimpleITK,nibabel中常用的api接口,都会自动的进行上述转化过程,即取出来的值已经是Hu了。除非专门用nib.load('xx').dataobj.get_unscaled()或者itk.ReadImage('xx').GetPixel(x,y,z)才能取得原始数据
对于dcm格式的图片,SimpleITK,pydicom常用的api接口都不会将原始数据自动转化为Hu。(itk snap软件读入dcm或nii都不会对数据进行scale操作)
公式与代码:
HU = pixel_val*slope + intercept
其中,slope,intercept可以从元数据中读取
def get_pixels_hu(ct_array,slope,intercept):
if slope != 1:
ct_array = slope*ct_array
ct_array += intercept
return ct_array
2 CT图像窗宽窗位调整
对于CT图像来说,它的HU值从负几千到正几千都有,我们可以使用ITK依次读取CT图像的每个值,并可以将其每个值保存在Mat中,但这时通过opencv的imshow函数不能够显示出来。这时图像显示和打印面临的一个问题是:图像的亮度和对比度不能充分突出关键部分。这里所指的“关键部分”在 CT 里的例子有软组织、骨头、脑组织、肺、腹部等等。因为显示器往往只有 8-bit, 而数据有 12- 至 16-bits。也就是说,不能直接将 CT 值作为传统意义上的像素值进行输出, 而是要经过一个变换,或者称其为映射。
针对这些问题,研究人员提出一些要求 (requirements),变换应该尽量满足:
要求一:充分利用 0-255 间的显示有效值域
要求二:尽量减少值域压缩带来的损失
要求三:不能损失应该突出的组织部分
医学图像领域的窗口技术,包括窗宽(window width)和窗位(window center),用于选择感兴趣的CT值范围。因为各种组织结构或病变具有不同的CT值,因此欲显示某一组织结构细节时,应选择适合观察该组织或病变的窗宽和窗位,以获得最佳显示。窗宽和窗位分别对应图像的对比度与亮度。
注:1)窗宽窗位是CT图像特有的概念,MRI图像中可没有此概念2)CT图像必须西安转换成HU值再做窗宽窗位调整
窗宽是CT图像上显示的CT值范围,在此CT值范围内的组织和病变均以不同的模拟灰度显示。而CT值高于此范围的组织和病变,无论高出程度有多少,均以白影显示,不再有灰度差异; 反之,低于此范围的组织结构,不论低的程度有多少,均以黑影显示,也无灰度差别。增大窗宽,则图像所示CT值范围加大,显示具有不同密度的组织结构增多,但各结构之间的灰度差别减少。减小窗宽,则显示的组织结构减少,然而各结构之间的灰度差别增加。如观察脑质的窗宽常为-15~+85H,即密度在-15 ~+85H范围内的各种结构如脑质和脑脊液间隙均以不同灰度显示。而高于+85H的组织结构如骨质几颅内钙化,其间虽有密度差,但均以白影显示,无灰度差别;而低于-15H组织结构如皮下脂肪及乳突内气体均以黑影显示,其间也无灰度差别。
窗位是窗的中心位置,同样的窗宽,由于窗位不同,其所包括的CT值范围的CT值也有差异。例如窗宽同为100H,当窗位为0H时,其CT值范围为-50 ~ +50H ; 如窗位为+35H时,则CT值范围为-15~+85H。通常,欲观察某以组织结构及发生的病变,应以该组织的CT值为窗位。例如脑质CT值约为+35H,则观察脑组织及其病变时,选择窗位以+35H为妥。
设定正确的窗宽窗位
应用场景:用神经网络分割liver 和 liver tumor,对训练数据进行预处理。
基本思路:
方法一:
窗位、窗宽可以设置如下:(但有研究者认为该方法没有方法二的量身定做有优势)
def get_window_size(organ_name):
if organ_name == 'lung':
# 肺部 ww 1500-2000 wl -450--600
center = -500
width = 2000
elif organ_name == 'abdomen':
# 腹部 ww 300-500 wl 30-50
center = 40
width = 500
elif organ_name == 'bone':
# 骨窗 ww 1000-1500 wl 250-350
center = 300
width = 2000
elif organ_name == 'lymph':
# 淋巴、软组织 ww 300-500 wl 40-60
center = 50
width = 300
elif organ_name == 'mediastinum':
# 纵隔 ww 250-350 wl 30-50
center = 40
width = 350
elif organ_name == 'liver':
#正常肝组织的CT值为50HU左右,
#采用 ww 100-150 wl 70-75,可以检查出常规ww200,wl 50没有检测出的病灶
#两种组织密度差别小的病灶适合用高窗位和低窗宽来观察
center == 70
width == 100
return center, width
方法二:
1)用liver和tumor的mask抠出liver 和 tumor部分
2)统计相应的最大值和最小值,并用其计算窗宽窗位。
优点:每个case的窗宽窗位依据案例量身定做。相较于整个数据集用统一的窗宽窗位,或者采用cut off,有无可比拟的优点。
import SimpleITK as sitk
import numpy as np
import os
def saved_preprocessed(savedImg,origin,direction,xyz_thickness,saved_name):
newImg = sitk.GetImageFromArray(savedImg)
newImg.SetOrigin(origin)
newImg.SetDirection(direction)
newImg.SetSpacing((xyz_thickness[0], xyz_thickness[1], xyz_thickness[2]))
sitk.WriteImage(newImg, saved_name)
def window_transform(ct_array, windowWidth, windowCenter, normal=False):
"""
return: trucated image according to window center and window width
and normalized to [0,1]
"""
minWindow = float(windowCenter) - 0.5*float(windowWidth)
newing = (ct_array - minWindow)/float(windowWidth)
newing[newing < 0] = 0
newing[newing > 1] = 1
#将值域转到0-255之间,例如要看头颅时, 我们只需将头颅的值域转换到 0-255 就行了
if not normal:
newing = (newing *255).astype('uint8')
return newing
ct_path = 'G:\LITS\Training_dataset'
saved_path = 'C:\\Users\\Cerry\\Desktop\\wl'
name_list = ['volume-0.nii']
for name in name_list:
ct = sitk.ReadImage(os.path.join(ct_path,name))
origin = ct.GetOrigin()
direction = ct.GetDirection()
xyz_thickness = ct.GetSpacing()
ct_array = sitk.GetArrayFromImage(ct)
seg_array = sitk.GetArrayFromImge(sitk.ReadImage(os.path.join(ct_path,name.replace('volume'
,'segmentation'))))
seg_bg = seg_array == 0
seg_liver = seg_array >= 1
seg_tumor = seg_array == 2
ct_bg = ct_array * seg_bg
ct_liver = ct_array*seg_liver
ct_tumor = ct_array*seg_tumor
liver_min = ct_liver.min()
liver_max = ct_liver.max()
tumor_min = ct_tumor.min()
tumor_max = ct_tumor.max()
#by liver
liver_wide = liver_max - liver_min
liver_center = (liver_max + liver_min)/2
liver_wl = window_transform(ct_array,liver_wide,liver_center,normal=True)
saved_name = os.path.join(saved_path,'liver_w1_1.nii')
saved_preprocessed(liver_w1,origin,direction,xyz_thickness,saved_name)
#by tumor(recommended)
tumor_wide = tumor_max - tumor_min
tumor_center = (tumor_max + tumor_min) / 2
tumor_wl = window_transform(ct_array, tumor_wide, tumor_center, normal=True)
saved_name = os.path.join(saved_path, 'tumor_wl_1.nii')
saved_preprocessed(tumor_wl, origin, direction, xyz_thickness, saved_name)
注意:有研究者认为如果用下面的公式来实现,实验结果会非常的糟糕!
#先算图像的最大和最小值
min = (2*window_center - window_width)/2.0 + 0.5
max = (2*window_center + window_width)/2.0 + 0.5
for i in range(nNumPixels):
disp_pixel_val = (pixel_val - min)*255.0/(max - min)
#或者:
dFactor = 255.0 / (max - min)
d, h, w = np.shape(img)
for n in np.arange(d):
for i in np.arange(h):
for j in np.arange(w):
img[n, i, j] = int((img[n, i, j] - min) * dFactor)
min_index = img < 0
img[min_index] = 0
max_index = img > 255
img[max_index] = 255
return img
CT图像不同扫描面的像素尺寸、粗细粒度是不同的,这对进行CNN有不好的影响,因此可能需要进行重构采样,这里可参考CT图像相关知识与SimpleITK的使用介绍的12
并且,为了更好地进行网络训练,通常采用数据归一化。
参考
更多推荐
所有评论(0)