般实验室采用大面积、高分辨率探测器,需要新一代X-光光学系统去匹配才能有效益。
用回摆法收集数据是目前最常用的方法。下面就有关参数的选择提供一些参考意见:
1, 第一,准直光束的大小应与晶体的尺寸相当或略小;
2, 第二,晶体到探测器的距离应根据晶胞的大小来决定,晶胞越大距离越远,以保证衍射点不重叠;
3, 第三,回摆范围也与晶胞大小有关,晶胞越大回摆范围越窄,图像盘的回摆范围一般为10 __ 20 ,在不增加衍射点的重叠情况下,尽可能加大回摆角度。但对于电子面探测器应窄一些,以增加信噪比,一般为0.250或更小。
4, 第四,曝光时间取决于良好的统计计数与X射线光束下晶体有限的寿命之间的平衡,减少曝光时间可以相对多收数据,虽然数据可能会弱一点以至数据内部一致性会稍差一些, 但可能提供一套更为完整的数据, 减少某些系统误差;
5, 第五,一般以晶体的主对称轴为回摆轴收集数据最为有效 (可在最小的回摆范围收到全套数据);当然这些还与空间群、晶胞大小以及晶体外形有关。作为在实验室面探测器上进行日常数据收集的一种策略,故意设置晶体在1800旋转范围进行收集一段空一段(如150,再空150)的分段收集,可在相对小的旋转角度内收集到一套完整的数据。但在当需要反常散射测量时(因为后者需要在同一图上收集Bijvoet点对) 就不太适合了。
在常规的光束下使用回摆法时,位于旋转轴的附近数据一般来说是无法测量的。但如果使用较短的波长,可以减小旋转轴附近的不可测区域;另外将晶体的对称轴校准在离旋转轴几度的地方,即使晶轴略微偏离旋转轴,则倒易格子中的对称性经常允许记录与旋转轴附近对称性相关的数据,这也可减少盲区。
蛋白质可能的空间群见表3,晶体形态学常常给出晶体学轴的对称性和取向的线索,经典的空间群的初次鉴定通常在旋进相机上进行,但根据我们的经验, 在晶体轴的00, 900以及适当的话300或450回摆照相经常足以确定晶胞的大小
及晶体学点群(表3)。由原始数据的系统消光规律可以定义晶体的螺旋轴。我们认为首先是收集数据, 不要将非常珍贵的晶体浪费在了解晶胞的特点上,可在一个较低的对称空间群上处理数据,并检查可能的对称等效点。除非有相位
信息,许多对映体结构不能被区分, 如P3121和P3221。但这并不影响数据收集和处理。
数据处理一般包括以下几个步骤:
第一步指标化,以确定晶胞参数和格子类型。这一步现在经常采用自动指标化算法(29),以保证在X光束下晶体寿命不会浪费在晶体的定向上;
第二步预测全部衍射点的记录位置;
第三步整合 (现经常使用?profile fitting‘(30)): 包括预定点位置的强度测量及适当背景值的估算;
第四步对称等效点的比例因子的校正和平均、归并以给出一套独立数据,在此过程中,还需要校正随时间变化的晶体损伤及晶体外形不规则所造成的吸收效应的差别。
上述方案中,适当时候,也需要进行对探测器及光源依赖的校正。有的时候,需要进行特殊的吸收效应校正(31)。后修正(post-refinement)对于不完整衍射点(partiality)强度偏差的估计有改善作用, 尤其是在病毒晶体学中尤为适用(32)。强度数据最终统一后(scaling),一般情况下,所得到的强度的R因子的变化应在3%(良好的数据)和11%(很弱的数据)之间。衍
射强度的R因子定义为:
对于某些空间群 (见表3) 倒易格子的几何对称性比其强度的对称性高 (这样对指标的选择可能存在歧义), 因此,对于一个独立指标数据群可能要求在计算前进行指标操作,当格子表现出赝对称性时可能也是这样 (如两个几乎相同的晶胞尺寸)(33)。
数据收集过程中的晶体在毛细管中的滑动可能导致对该部分数据分开处理。一套完整的原始数据,它的完整度(completeness)应超过80%,而且缺失数据在
倒易空间中应随机分布;全部数据至少高于独立数据(即它的丰度redundancy)2-3倍以上,以便得到正确的比例因子,提高数据的精度。
数据的质量对结构分析中以后各阶段的重要性是不言而喻的,不过,如果因为数据的收集量大(redundancy高)而使得数据的Rmerge增加了一点并不是坏事,因为统计测量的信息量的真相将表现在最终的电子密度图中,在这种情况下最终的准确性将会提高。Rmerge作为分辨率函数的指标必须进行监测,很多人认为一个分析的最高分辨率的壳层的Rmerge不应超过25%,数据的完整性对初始相位及结构测定是很重要的, 而对于以后的差值电子密度图就不太重要了。对于非晶体学对称性, 差值电子密度图所需的数据部分可进行粗略估计,如对于五重对称, 一个(随机样品)的完整数据的1/5应就足够了。
5. 相位测定
在晶体中一个不对称单元中有多个相同的蛋白质分子时, 一些有价值的分子之间堆积的信息可直接从结构振幅计算得出,而不必要预先知道任何相位信息:
1. 例如自身旋转函数可检查分子间是否存在任何非晶体学对称轴问题。必须注意非晶体学与晶体学旋转轴的平行将会掩盖这类峰的信息,高对称性的空间群往往容易产生背景嘈杂的函数;
2. 计算低分辨率的 (如15-7?) 的母体(native)Patterson函数以检查不对称单元中的简单平移关系。例如晶体学及非晶体学对称操作的组合使分子方向不变而产生一个沿晶轴的平移。
晶胞中分子堆积的这类基本信息对解决一些疑难的相位问题会有很大的邦助,下面分别介绍获得相位信息的三种主要方法。
5.1 单对或多对同晶置换法(SIR/MIR)
这是目前最常使用的方法,该方法的基础是以测量重原子 (常为金属) 结合到蛋白质分子上有限的几个特异位点时而导致的衍射强度差(变化)。常用的试剂列在表4中,详细的使用在参考书34中有讨论。由于这些试剂毒性都很大,处理时一定要严格按规定的方法进行。制备重原子衍生物晶体,一般采用将母体
晶体浸在重原子溶液中,重原子化合物的常用浓度范围为1mM-10mM,浸泡时间可从数小时到数天,浸泡条件的摸索尽量用小晶体作试验,记住大晶体必须用于数据收集。浸泡过程中要注意观察,首先必须保证浸
泡于重原子溶液中的晶体不出现裂痕。重原子衍生物晶体也可尝试用共晶生长法(Co-crystallization)来制备。
表4:常用的重金属化合物:
Platinum compounds:K2PtCL4,K2Pt(CN)4 Gold compound:KAu(CN)2,NaAuCL4
Uranium compounds: Pb(NO3)2,UO2(CH3COO)2
Lead compounds: Pb(NO3)2,Pb(CH3COO)2,trimethyl lead acetate Rare earth: lanthanide and samarium salts
Mercurials: p-chloromercurri benzene sulphonate (PCMBS),ethylmercury phosphate(EMP),mercuric acetate,mersalyl,1,4-diacetoxy mercuri-2,3-dimethoxybutane (Baker‘s dimercurial)
Complex ions and clusters: K2HgI4 in excess KI, tetrakis(acetoxymercuril) methane(TAMM),[[W3O2(O2CCH3)6](H2O)3](CF3SO3)2(WAC) 蛋白质分子中某些化学基团在传统上是重原子衍生物制备的首选对象, 如游离的巯基, 在参考书34中有讨论。单一暴露的二硫键可被还原并掺入一个汞原子(35)。人们也试图用重原子簇来制备重原子衍生物,重原子簇具有较大的质量和特征的对称性,可与晶体的特定性质相匹配(36,37)。进行蛋白突变以提供理论上适于重原子结合的位点(如定点突变产生游离半胱氨酸,谷氨酸()38)。然而有用的重原子衍生物的获得仍有赖于运气的好坏,晶体颜色或密度的改变可对重原子是否结合提供一些提示,但最终仍要依赖于X射线的数据收集。将母体和衍生物晶体的数据相比较:
1. 如果晶胞大小变化很小,且平均强度变化不随着分辨率的变化而增加,则两者的同晶度较好;
2. 一个好的重原子衍生物它与母体平均强度差异应大大超过随机噪声的本底。一般说,每17KD蛋白的一个高占有率的汞位点可在母体和衍生物间的结构因子振幅上产生大约25%的平均差异. (见图3);
图3:
每个重原子衍生物可收集一小部分衍射数据(较低分辨率)来判断其是否有用。然后对那些有希望的样品进行全套数据收集(高分辨率)。对不同晶体的同一种重原子衍生物数据一起合并要十分小心, 因为重原子的占有率可能不同, 需要对每一套数据分别进行重原子修正(39)。
所以,最好能从一个晶体中收集一套完整的重原子数据。在统一重原子衍生物与母体数据(Scaling)时也应注意各向异性的比例因子的影响(39)。重原子的反常散射信息在消除位相的双解上是很重要的,即使反常散射信号往往比同晶差值小一个数量级(见5.3及图3)。成功的反常散射信号的取得主要决定于数据收集和统一时的精度。相关系数是评价反常散射差值可*性的一种简单的指标(39)。
对于低对称性空间群的晶体,如果不对称单位内仅有一个或二个重原子位点, 差值Patterson图的Harker截面上几个强峰能立即确定为重原子峰 (Patterson函数的解释可见教科书, 如参考书4)。
重原子峰不太明显的情况时,计算各独立分辨率范围的差值Patterson图,通过图间的比较可能有助于典型峰的确认。从我们的经验来看, 在两个类似图谱间基于2?以上的峰,计算简单相关函数可作为其有用信息含量的一个指标。对于特别复杂的例子,自动Patterson搜索程序非常有效(如参考书40)。由于差值Patterson图是用数据对的差值的平方来计算, 少数大的差值可造成灾难性的后果, 因此去除数据中差值过大的部分(差异大于平均差异的三倍)是很重要的。我们也建议将原点去除作为一种标准操作程序。