科学家让每个人的电脑都能参与攻克疾病研究

来源:百度文库 编辑:超级军网 时间:2024/04/26 13:33:09
美国宾夕法尼亚州波科诺山一家普通乡村旅店的地下室,日夜灯火通明,老板迈克·凯利的数台电脑不停运转着,沙沙作响。虽然表面没什么特别,但其实这些电脑正在处理一个现代医学中的重大难题。

  凯利的5台电脑使用剩余的计算能力,分析着数亿个基因组成的庞大数据库,希望发现基因在艾滋病和癌症等疾病中所起的作用。一天下来,如果运气好的话,他可以掀起8至9个
基因的面纱。如果按照这个速度计算,他可以在数亿年后完成整个解析过程。

  不过不要紧张,因为凯利的同好遍天下,全球共有1万多台电脑加入了凯利所在的研究项目。这些电脑被因特网编织在一起,组成一个代用的超级计算机。仿佛浩浩荡荡的蚂蚁兵团啮食大象的尸体一样,这些电脑正在有条不紊地测试每一个潜在的基因。他们希望能够在大约两年时间内完成所有工作。

  凯利的电脑是这项雄心勃勃的分布式计算计划的根的部分。所谓分布式计算是指把计算分布到多个机器上去进行。利用数千万台个人电脑同时运转所产生的力量来创造虚拟超级计算机,以攻克现代科学中的尖端计算难题。凯利说:“全球目前有相当于一百万台Cray超级计算机的计算能力处于闲置状态,把它们调动起来,就可以减轻计算能力紧张的压力。”

  以往曾经有过分散的分布式计算项目,但并不红火。随着因特网的迅速传播和个人电脑计算能力日益增长,使这一领域内出现重大变化。科学工作者正在利用这一战略来与疾病作斗争,预测全球气候变化并预测股票市场内的变动。

  瑞典放射科学家彼得·詹森设计出一种算法,模拟测量一种小型核废料储存罐周围数千万个点的伽玛射线辐射量。如果最终获得答案,技术人员就可以知道一个罐子的最多储存量。然而,詹森的算法需要数十亿次计算,这项计算如果在在一台电脑上完成,需要大约5万年完成。而在2万名志愿者的电脑上运行该项目2年之后,对罐子的数据计算已经基本完成。杰森说:“计算很简单,只是整个过程的计算量太大。”

  分布式计算在某种程度上仍然是普通人很陌生的概念,因为目前参与的人仅有几百万,而访问因特网的用户则高达数亿人。但这种概念正在迅速横扫网络世界,并产生了一种特殊的的技术文化,这种文化把慈善、高科技和电脑游戏混合在一起。

  参与者已经形成激烈竞争的计算小组,成为因特网上的团队运动。弗吉尼亚州阿灵顿的网络开发商亨利·斯坦波斯十分钟情分布式计算的,他收集了一批废弃电脑以提高他在分布式计算项目上的排名。斯坦波斯说:“你看到你的名字,然后你会说,我要把我的名字排在最上面。”斯坦波斯是计算股票市场波动性项目的志愿者,同时参与研究蛋白质如何从线型的氨基酸的形式转换成三维形状。

  分布式计算的概念从网络计算的早期就已经出现。这一概念早在最早诞生在20世纪70年代的施乐公司帕洛阿尔托研究中心。那里的网络科学家们创造了一个名为“蠕虫”(worm)的程序,该程序在研究中心的200多台机器上漫游,目的是用来搜索可投入使用的闲置电脑。这一项目后来演变成一场灾难,蠕虫可以运行导致系统瘫痪的测试程序,当某一主机下辖的每一台电脑都瘫痪后,蠕虫程序又扩展到一个新的主机上,使它瘫痪。今天提起蠕虫,大多数人已经忘记了这其实是分布式计算的起源,而只记得它是一种破坏性极强、自我传播快的电脑病毒,类似于去年的“爱虫”病毒。

  分布式计算的概念此后一段时间里进入冬眠期,到90年代中期因特网开始普及、数百万台电脑可以通过一个单一的网络相连接时,分布式计算的概念又开始复兴。科学家开始推出各种质数研究和解密工作,这些计算工作是专为这种方式而设计的,因为这些计算简单,但计算次数却大到难以想像。

  最终将分布式计算带到大众面前的是一个名为SETI@home的狂想家项目。加州大学伯克利分校领导的工作支持搜索外星智能,让个人电脑用户研究来自波多黎各Arecibo天文台射电望远镜的数据,来搜索可能是来自于先进文明的不寻常信号。

  尽管不少严肃的科学家怀疑这类项目是否能发现什么东西,但截取外星人通讯的前景那么引人着迷,在推出短短2年内就有300多万志愿者下载了SETI@home的数据计算屏保程序。

  现在,各大领域内的研究学者们都陆续推出类似SETI@home,但更具备使用目标的程序。斯坦福大学化学教授维杰·潘德正在领导Genome@home的项目,正是这个项目占据了凯利在波科诺山旅店的电脑。在18000名志愿者的帮助下,他同时还在运行一个相关项目,一毫微秒、一毫微秒地模拟蛋白质在形成三维形状时的行为。

  每天,一个志愿者的电脑可以计算大约10亿分之一秒的一个蛋白质的形成过程。如果18000台电脑都在运行的话,大约需要三个星期就可以获得一些有价值的结果,然后他们就可以开始研究另一组蛋白质。

  位于England的Oxfordshire的Rutherford Appleton实验室的气象动态研究学家迈尔斯·阿艾则试图预测2050年的全球气候。今年夏天,阿艾向17000多名志愿者发放各种气候预测模型,每一个计算模型人至少需要在一台台式电脑上计算200天。分布式计算使阿伦可以模拟数千个方案,评估包括气温等100多个参数对全球气候的影响。在一台超级计算机上,他仅可以运行大约12个方案。

  这些研究项目已经开始获得成果。约95000名志愿者组成的一个团体赢得了数项加密竞赛的大奖并且发现了新的质数。斯坦福大学的潘德教授已经根据正在进行的研究蛋白质的试验结果,在《科学》杂志上发表了两篇论文。在La Jolla的Scripps研究学会,一个名为FightAIDS@home的项目已经加快了对治疗艾滋病药物的检查速度。

  但除了这些实际收益之外,在这个网上文明用语内容日增、诈骗和大量垃圾邮件堆积的时代,真正推动这项运动的是一种利他主义和科学研究的精神,以及重新回到纯净的早期因特网时代的渴望。

  参与Genome@home项目的志愿者斯蒂夫·泰勒说:“癌症使我失去了双亲,我把参与这项计划看作是‘做自己的一点贡献’,来抵抗癌症和其它可怕的疾病。”

  泰勒为该项目购置了6台电脑。他说:“我发现这样做比起把钱放在慈善机构的信封里、然后不知所终更有成就感。”

  为了参加一个分布计算项目,普通的电脑用户志愿者需要下载一个小程序。这个程序将负责计算、与服务器通讯以发送用于处理的大量数据。这个程序的目的是利用电脑闲置时的资源,因此用户使用电脑时,这个程序就会降低运行速度,而在电脑闲置时就会加快。

  一家成立4年的非盈利研究基金会Distribted.net专门致力于推动分布式计算。基金会负责人戴维·马克奈特说:“电脑闲置资源不能储存,没有充分利用的话就白白浪费了。如果能找到一个很好地使用这种资源的途径,将非常令人激动。我希望能够充分利用这些资源。”

  但正如因特网逐渐从纯洁的象牙塔走向市场,商业利益已经走近分布式计算领域,并且因此推动了这一过程。

  免费因特网服务供应商Juno网上服务公司最近提出一些苛刻条件,要求客户不能关闭电脑,这令其客户非常不满。这家公司希望借此向研究机构和其它公司出售处理能力,以获取利润。

  许多新兴公司正在组织自己的分布式计算电脑网络,通过抽奖和提供现金回扣等措施吸引志愿者加入。弗吉尼亚州Fairfax的Parabon计算公司计划根据人们为网络贡献的计算能力,提供一定报酬。其首席执行官斯蒂夫·阿姆特朗估计,一台高端工作站一年可收入500美元。

  但是对大多数志愿者而言,吸引他们的不是钱,而是最终的结果。数据库管理者米歇尔·霍特克对于他在SETI@home里的排名无法上升备感沮丧。这项排名是根据他们为该项目做了多少工作列出的。其实这种排名和与网上游戏排名相比并没有多大区别,但对于参与者而言,这种排名是一项非常重要的荣誉。霍特克最终决定退出SETI@home项目,而转而加入另外两项更新的项目,原因就是这两个项目提供更高的排名机会。他加入了FightAIDS@home的团队项目,并成功地进入了前100名;接着他又加入了英特尔公司和位于德克萨斯州奥斯丁的联合设备公司赞助的癌症研究项目,并迅速上升到第八位。霍特克说:“如果我发现了一些东西,就是发现了一些东西,但我更感兴趣的是获得更高的分值、更高的排名。”住在俄亥俄州的霍特克,一天到晚开着电脑,他的观点是:“如果我现在用不着它,还不如让它开着做些有用的事。”这场竞争已经有些白热化,一些项目明显是针锋相对。

  文章开头提到的旅店老板凯利是Overclockers Network Hellspawns团队的一名成员。这个团队大约有65名成员,从技术专业人员到高校学生不等,最近超过了另外一个以Star Trek中的角色Jean-Luc Picard船长为名的团队,在斯坦福大学的基因合成项目中排名升为第三。

  现在他们已经接近另外一个意大利团队,那个团队比他们多计算出2000多个基因。这大约需要Overclockers花费5天的时间来赶超他们。凯利说,他的团队正在拼命追赶,团体成员在办公室里争取有用的电脑计算时间,此外一些因特网网吧也被拉入这项工作。该团队的一位成员正在写一种SETI@home类型的屏保程序,来吸引更多的人支持。尽管意大利的团队保持领先,但凯利有信心赶上他们。这样的话就只剩下Ars Technica Team Primordial Soup团队,这支排名第一的团队比他美国宾夕法尼亚州波科诺山一家普通乡村旅店的地下室,日夜灯火通明,老板迈克·凯利的数台电脑不停运转着,沙沙作响。虽然表面没什么特别,但其实这些电脑正在处理一个现代医学中的重大难题。

  凯利的5台电脑使用剩余的计算能力,分析着数亿个基因组成的庞大数据库,希望发现基因在艾滋病和癌症等疾病中所起的作用。一天下来,如果运气好的话,他可以掀起8至9个
基因的面纱。如果按照这个速度计算,他可以在数亿年后完成整个解析过程。

  不过不要紧张,因为凯利的同好遍天下,全球共有1万多台电脑加入了凯利所在的研究项目。这些电脑被因特网编织在一起,组成一个代用的超级计算机。仿佛浩浩荡荡的蚂蚁兵团啮食大象的尸体一样,这些电脑正在有条不紊地测试每一个潜在的基因。他们希望能够在大约两年时间内完成所有工作。

  凯利的电脑是这项雄心勃勃的分布式计算计划的根的部分。所谓分布式计算是指把计算分布到多个机器上去进行。利用数千万台个人电脑同时运转所产生的力量来创造虚拟超级计算机,以攻克现代科学中的尖端计算难题。凯利说:“全球目前有相当于一百万台Cray超级计算机的计算能力处于闲置状态,把它们调动起来,就可以减轻计算能力紧张的压力。”

  以往曾经有过分散的分布式计算项目,但并不红火。随着因特网的迅速传播和个人电脑计算能力日益增长,使这一领域内出现重大变化。科学工作者正在利用这一战略来与疾病作斗争,预测全球气候变化并预测股票市场内的变动。

  瑞典放射科学家彼得·詹森设计出一种算法,模拟测量一种小型核废料储存罐周围数千万个点的伽玛射线辐射量。如果最终获得答案,技术人员就可以知道一个罐子的最多储存量。然而,詹森的算法需要数十亿次计算,这项计算如果在在一台电脑上完成,需要大约5万年完成。而在2万名志愿者的电脑上运行该项目2年之后,对罐子的数据计算已经基本完成。杰森说:“计算很简单,只是整个过程的计算量太大。”

  分布式计算在某种程度上仍然是普通人很陌生的概念,因为目前参与的人仅有几百万,而访问因特网的用户则高达数亿人。但这种概念正在迅速横扫网络世界,并产生了一种特殊的的技术文化,这种文化把慈善、高科技和电脑游戏混合在一起。

  参与者已经形成激烈竞争的计算小组,成为因特网上的团队运动。弗吉尼亚州阿灵顿的网络开发商亨利·斯坦波斯十分钟情分布式计算的,他收集了一批废弃电脑以提高他在分布式计算项目上的排名。斯坦波斯说:“你看到你的名字,然后你会说,我要把我的名字排在最上面。”斯坦波斯是计算股票市场波动性项目的志愿者,同时参与研究蛋白质如何从线型的氨基酸的形式转换成三维形状。

  分布式计算的概念从网络计算的早期就已经出现。这一概念早在最早诞生在20世纪70年代的施乐公司帕洛阿尔托研究中心。那里的网络科学家们创造了一个名为“蠕虫”(worm)的程序,该程序在研究中心的200多台机器上漫游,目的是用来搜索可投入使用的闲置电脑。这一项目后来演变成一场灾难,蠕虫可以运行导致系统瘫痪的测试程序,当某一主机下辖的每一台电脑都瘫痪后,蠕虫程序又扩展到一个新的主机上,使它瘫痪。今天提起蠕虫,大多数人已经忘记了这其实是分布式计算的起源,而只记得它是一种破坏性极强、自我传播快的电脑病毒,类似于去年的“爱虫”病毒。

  分布式计算的概念此后一段时间里进入冬眠期,到90年代中期因特网开始普及、数百万台电脑可以通过一个单一的网络相连接时,分布式计算的概念又开始复兴。科学家开始推出各种质数研究和解密工作,这些计算工作是专为这种方式而设计的,因为这些计算简单,但计算次数却大到难以想像。

  最终将分布式计算带到大众面前的是一个名为SETI@home的狂想家项目。加州大学伯克利分校领导的工作支持搜索外星智能,让个人电脑用户研究来自波多黎各Arecibo天文台射电望远镜的数据,来搜索可能是来自于先进文明的不寻常信号。

  尽管不少严肃的科学家怀疑这类项目是否能发现什么东西,但截取外星人通讯的前景那么引人着迷,在推出短短2年内就有300多万志愿者下载了SETI@home的数据计算屏保程序。

  现在,各大领域内的研究学者们都陆续推出类似SETI@home,但更具备使用目标的程序。斯坦福大学化学教授维杰·潘德正在领导Genome@home的项目,正是这个项目占据了凯利在波科诺山旅店的电脑。在18000名志愿者的帮助下,他同时还在运行一个相关项目,一毫微秒、一毫微秒地模拟蛋白质在形成三维形状时的行为。

  每天,一个志愿者的电脑可以计算大约10亿分之一秒的一个蛋白质的形成过程。如果18000台电脑都在运行的话,大约需要三个星期就可以获得一些有价值的结果,然后他们就可以开始研究另一组蛋白质。

  位于England的Oxfordshire的Rutherford Appleton实验室的气象动态研究学家迈尔斯·阿艾则试图预测2050年的全球气候。今年夏天,阿艾向17000多名志愿者发放各种气候预测模型,每一个计算模型人至少需要在一台台式电脑上计算200天。分布式计算使阿伦可以模拟数千个方案,评估包括气温等100多个参数对全球气候的影响。在一台超级计算机上,他仅可以运行大约12个方案。

  这些研究项目已经开始获得成果。约95000名志愿者组成的一个团体赢得了数项加密竞赛的大奖并且发现了新的质数。斯坦福大学的潘德教授已经根据正在进行的研究蛋白质的试验结果,在《科学》杂志上发表了两篇论文。在La Jolla的Scripps研究学会,一个名为FightAIDS@home的项目已经加快了对治疗艾滋病药物的检查速度。

  但除了这些实际收益之外,在这个网上文明用语内容日增、诈骗和大量垃圾邮件堆积的时代,真正推动这项运动的是一种利他主义和科学研究的精神,以及重新回到纯净的早期因特网时代的渴望。

  参与Genome@home项目的志愿者斯蒂夫·泰勒说:“癌症使我失去了双亲,我把参与这项计划看作是‘做自己的一点贡献’,来抵抗癌症和其它可怕的疾病。”

  泰勒为该项目购置了6台电脑。他说:“我发现这样做比起把钱放在慈善机构的信封里、然后不知所终更有成就感。”

  为了参加一个分布计算项目,普通的电脑用户志愿者需要下载一个小程序。这个程序将负责计算、与服务器通讯以发送用于处理的大量数据。这个程序的目的是利用电脑闲置时的资源,因此用户使用电脑时,这个程序就会降低运行速度,而在电脑闲置时就会加快。

  一家成立4年的非盈利研究基金会Distribted.net专门致力于推动分布式计算。基金会负责人戴维·马克奈特说:“电脑闲置资源不能储存,没有充分利用的话就白白浪费了。如果能找到一个很好地使用这种资源的途径,将非常令人激动。我希望能够充分利用这些资源。”

  但正如因特网逐渐从纯洁的象牙塔走向市场,商业利益已经走近分布式计算领域,并且因此推动了这一过程。

  免费因特网服务供应商Juno网上服务公司最近提出一些苛刻条件,要求客户不能关闭电脑,这令其客户非常不满。这家公司希望借此向研究机构和其它公司出售处理能力,以获取利润。

  许多新兴公司正在组织自己的分布式计算电脑网络,通过抽奖和提供现金回扣等措施吸引志愿者加入。弗吉尼亚州Fairfax的Parabon计算公司计划根据人们为网络贡献的计算能力,提供一定报酬。其首席执行官斯蒂夫·阿姆特朗估计,一台高端工作站一年可收入500美元。

  但是对大多数志愿者而言,吸引他们的不是钱,而是最终的结果。数据库管理者米歇尔·霍特克对于他在SETI@home里的排名无法上升备感沮丧。这项排名是根据他们为该项目做了多少工作列出的。其实这种排名和与网上游戏排名相比并没有多大区别,但对于参与者而言,这种排名是一项非常重要的荣誉。霍特克最终决定退出SETI@home项目,而转而加入另外两项更新的项目,原因就是这两个项目提供更高的排名机会。他加入了FightAIDS@home的团队项目,并成功地进入了前100名;接着他又加入了英特尔公司和位于德克萨斯州奥斯丁的联合设备公司赞助的癌症研究项目,并迅速上升到第八位。霍特克说:“如果我发现了一些东西,就是发现了一些东西,但我更感兴趣的是获得更高的分值、更高的排名。”住在俄亥俄州的霍特克,一天到晚开着电脑,他的观点是:“如果我现在用不着它,还不如让它开着做些有用的事。”这场竞争已经有些白热化,一些项目明显是针锋相对。

  文章开头提到的旅店老板凯利是Overclockers Network Hellspawns团队的一名成员。这个团队大约有65名成员,从技术专业人员到高校学生不等,最近超过了另外一个以Star Trek中的角色Jean-Luc Picard船长为名的团队,在斯坦福大学的基因合成项目中排名升为第三。

  现在他们已经接近另外一个意大利团队,那个团队比他们多计算出2000多个基因。这大约需要Overclockers花费5天的时间来赶超他们。凯利说,他的团队正在拼命追赶,团体成员在办公室里争取有用的电脑计算时间,此外一些因特网网吧也被拉入这项工作。该团队的一位成员正在写一种SETI@home类型的屏保程序,来吸引更多的人支持。尽管意大利的团队保持领先,但凯利有信心赶上他们。这样的话就只剩下Ars Technica Team Primordial Soup团队,这支排名第一的团队比他
BOINC和Folding.home的成果都是公开的

中国生物、医药类研究大量引用了Folding.home的研究成果如:

《药物发现网格设计与实现》
张文举(1) 陈曙东(1) 刘了(3) 马范援(1) 沈建华(2)
(1)上海交通大学计算机系,上海200030 (2)中科院上海药物研究所,上海201203 (3)江南计算技术研究所,无锡214083


《一种分布式网格计算框架以及在大规模分子动力学模拟中的应用》
王文睿(1) 陈国良(1) 邢利荣(2) 陈华平(1) 孙广中(1) 单久龙(1)
(1)中国科学技术大学国家高性能计算中心,安徽合肥230027 (2)上海电力学院数理系,上海201300


《GROMOS96分子动力学模拟的并行优化算法》
王文睿 陈国良 孙广中
中国科学技术大学计算机系国家高性能计算中心,合肥230027
楼主先把字体大小和颜色改成正常的吧。会被扣分的。
早几年就有一个类似的分析星际信号的,不过这个东西嘛,呵呵,拿得到巨型机计算时间的都不会舍近求远
为了省钱不用超级计算机的吧。。。
有病要看 发表于 2013-1-13 13:35
为了省钱不用超级计算机的吧。。。

不是省钱!而是没钱!

Folding@Home这个项目就拿了 诺贝尔化学奖-G蛋白--GPU3 projects 8043 8044 8045 8054

    These projects fold on NVIDIA Fermi GPUs. STATS: Point: 2387.1 ; timeout: 6.9; deadline:9.3;

    These project perform folding of "Protein G", which is a large multi-domain surface protein of group G Streptococcus. It is one of proteins which can selectively bind antibodies. Therefore, it is widely used in purification of antibodies. It is also a model protein used for understanding the general mechanisms underlying protein folding. For example, Protein L ( projects 8001 and 8004) and Protein G have the same structure but their folding mechanism are suspected to be very different. In these projects, we study various mutants of protein G to understand its folding mechanism and elucidate the role played by protein structure and sequence in folding.
    Manager for this FAH project

    Dr. Diwakar Shukla is a postdoctoral scholar in the lab of Vijay Pande at Stanford University. Dr. Shukla's research focuses on using large-scale simulation methods to unravel the mysteries of Alzheimer's Disease. We are continuing to use Folding@home in order to learn more about Alzheimer's Disease, in particular to discover new therapeutics, such as this recent work from our group.


    斯德哥尔摩时间10月10日11点45分,2012年诺贝尔化学奖揭晓,两位美国科学家罗伯特·莱夫科维茨(Robert J. Lefkowitz)和布莱恩·科比尔卡(Brian K. Kobilka)因“G蛋白偶联受体”研究领域的杰出贡献而获奖。
    生物通报道:斯德哥尔摩时间10月10日11点45分,2012年诺贝尔化学奖揭晓,两位美国科学家罗伯特·莱夫科维茨(Robert J. Lefkowitz)和布莱恩·科比尔卡(Brian K. Kobilka)因“G蛋白偶联受体”研究领域的杰出贡献而获奖。

    美国斯坦福大学医学院的教授,分子和细胞生理学和医学博士。他也是ConfometRx,一家专注于G-蛋白偶联受体的生物技术公司的共同创办人。2011年入选美国国家科学院院士。

    G蛋白偶联受体最新研究成果:

    今年Kobilka教授领导组成的国际研究团队一连公布了三篇论文,报道了G蛋白偶联受体(GPCR)作用复合物的详细晶体结构,这一发现被称为是一项真正具有突破意义的成果。

    G蛋白偶联受体(GPCR)是与G蛋白有信号连接的一大类受体家族,是最著名的药物靶标分子,调控着细胞对激素,神经递质的大部分应答,以及视觉,嗅觉,味觉等。目前世界药物市场上至少有三分之一的小分子药物是GPCR的激活剂或者拮抗剂,据报道,目前上市的药物中,前50种最畅销的药物20%就属于G蛋白受体相关药物,比如充血性心力衰竭药物Coreg,高血压药物Cozaar,乳腺癌药物Zoladex等等。

    由于GPCR属于膜蛋白——穿插细胞膜多达7次,而且构象形态多,因此其结构生物学分析不容易开展,而这篇文章完成了GPCR跨膜信号作用复合物的X-射线晶体结构,实现了许多人未能完成的任务,正如密苏里州大学的Stephen Sprang所说的那样:这是一篇真正具有突破意义的文章,多年以来,我们这行里的人都在梦想得到这个结构图,因为它最终会告诉我们GPCR受体是如何发挥作用的。

    在这篇文章中,研究人员利用X线晶体成像技术(X-ray crystallographic)对与G蛋白偶联的β2肾上腺素能受体复合物进行了研究,据报道,G蛋白是一种由三个不同亚单位组成的蛋白,它很容易与GPCR蛋白分开,并且解离成三个独立的亚单位,而且这个复合物的大小大约是β2肾上腺素能受体蛋白的2倍。如果要拿到β2肾上腺素能受体蛋白——G蛋白复合物的晶体结构首先就得开发出纯化该复合物并且让它稳定存在的新技术,比如让复合物与抗体结合,或者对数千种不同的结晶条件进行系列实验等等。

    另外一篇Nature文章则介绍了利用“肽酰胺氢-氘交换质谱”对这一信号作用复合物的蛋白动态所做的探测研究,同期Nature杂志还发表了特写文章“It's all about the structure”,称要确定这些复合物的结构特别具有挑战性。

    不过也有科学家表示,由于这项研究实验采用的是经过人工改造的,并且与抗体结合的GPCR蛋白复合体,这可能不能反应天然蛋白的真实情况。对此,Kobilka等人则认为他们已经做过蛋白功能实验,实验结果表明他们使用的蛋白与天然蛋白在功能上没有差异。

    领导这项研究的是著名的结构生物学,斯坦福大学Brian K. Kobilka教授,他曾2007年与另外一位科学家Raymond C. Stevens,利用T4溶菌酶融合蛋白方法解析了第一个非视紫红质GPCR晶体结构:人β2肾上腺素受体,这篇发表在Sciene上的文章被引上千次,后来他还独立地通过抗体片段介导法解析了人β2肾上腺素受体的结构。
早几年就有一个类似的分析星际信号的,不过这个东西嘛,呵呵,拿得到巨型机计算时间的都不会舍近求远
巨型机计算时间好拿,但包下整台巨型机的实力怕是只有极少数组织有。
deam 发表于 2013-1-13 16:45
巨型机计算时间好拿,但包下整台巨型机的实力怕是只有极少数组织有。
那种组织不会搞这种小打小闹。而且整个申报运行体系比较成熟的状态下,巨型机也从来不会单任务,没有什么包下不包下的说法了。
{:soso_e100:}
没有出处,大字报,楼主要悲剧。
XXX@home
分布式计算,我还是有说话的权力的。。。从2003年到现在,一直在跑WCG项目,是元老级的了。
感觉很是高科技的样子
{:soso_e100:}{:soso_e100:}{:soso_e100:}
这说的难道是云计算么……
我从02年参加了SETI、Einstien、Climate,觉得还是很有趣的
自己顶贴,简直就是广告
我觉得从宏观来看,分布式计算是对资源的浪费,只不过打着使用空余计算机资源的旗号。
小型pc的运算效率是很低很低的,与其电力投入严重不符。我不用电脑时就关机,从不折腾这玩意。电也是钱,不考虑环保也有别的意义。
自己顶贴,简直就是广告
我觉得从宏观来看,分布式计算是对资源的浪费,只不过打着使用空余计算机资源的旗 ...
花费大量能源造出来的东西空着不用才是浪费。

deam 发表于 2013-2-5 21:21
花费大量能源造出来的东西空着不用才是浪费。


物尽其用就不是浪费了,空着不用谈何浪费?这么说车子不开的时间是不是还一定要充作公用,并且跑你的汽油?诸如此类?

虽然曾经是,但如今分布式计算却不是因为大型计算机的计算能力受限而发展的,而纯粹是政策或资金原因;需要为这种大型计算机使用机会的短板埋单的不是社会个人,而是科研系统。
分布式计算只是一种基于无奈的替代方案,按现有的技术是比集中计算消耗更多能源的。更不要说本文特指的、使用民间电脑进行的分布计算。PC机做运算,效率无比的低,大学里看有人做个小项目,特意攒的多核处理器电脑还算了好几个月。一台电脑最少300w,你算吧。其实电脑很费电的。


只有等到通信与运算能力都极大提升的未来,分布计算才有可能取代集中计算,成为常规。
deam 发表于 2013-2-5 21:21
花费大量能源造出来的东西空着不用才是浪费。


物尽其用就不是浪费了,空着不用谈何浪费?这么说车子不开的时间是不是还一定要充作公用,并且跑你的汽油?诸如此类?

虽然曾经是,但如今分布式计算却不是因为大型计算机的计算能力受限而发展的,而纯粹是政策或资金原因;需要为这种大型计算机使用机会的短板埋单的不是社会个人,而是科研系统。
分布式计算只是一种基于无奈的替代方案,按现有的技术是比集中计算消耗更多能源的。更不要说本文特指的、使用民间电脑进行的分布计算。PC机做运算,效率无比的低,大学里看有人做个小项目,特意攒的多核处理器电脑还算了好几个月。一台电脑最少300w,你算吧。其实电脑很费电的。


只有等到通信与运算能力都极大提升的未来,分布计算才有可能取代集中计算,成为常规。
使用民间电脑进行分布式计算,志愿者可以在使用电脑的同时计算,也可以设置所希望的硬件占用率,但积分系统促使的热情,也会使得一部分人无休止地开着电脑。
我玩过这个东西,还是知道一点的。

当然,按上面帖子的切入点,挂机进行p2p下载也是同样更加浪费能源的,并不经意,但实质上却很大;从道德上扩散开,可以说不反对p2p,但对分布式计算没热情是缺乏奉献精神的现象,但仅仅就事论事的话,分布式计算的客观缺点就是如上所述。若是对喜欢跑的人,我也不建议为此设置较高的占用率或没事也开着电脑。
Haku2004 发表于 2013-2-6 00:16
物尽其用就不是浪费了,空着不用谈何浪费?这么说车子不开的时间是不是还一定要充作公用,并且跑你的汽 ...
理论上说使用率非常低的汽车还不如不买。最节能的方式是坐公交。

现在高性能GPU相当普及了,但很多人买了强悍的游戏电脑却没时间玩游戏。相比消耗的那点电费,贡献的运算能力的确是可观的。比起电脑,生活中消耗能源的地方多了去了。
gbs 发表于 2013-1-13 11:44
分布式计算是一门计算机科学,它研究如何把一个需要非常巨大的计算能力才能解决的问题分成许多小的部分,然 ...
够傻的说。医药企业没钱?药价那么贵。真不要脸。


然后知识产权归谁呢?我们的电脑帮外国医疗科技巨头计算,然后我们再花巨资从他们手里买药?或者他们攻克基因的秘密,用于对付我们的战争?想都别想。
如果是中国医疗科技企业,我愿意贡献我的电脑。还有我的电费。

然后知识产权归谁呢?我们的电脑帮外国医疗科技巨头计算,然后我们再花巨资从他们手里买药?或者他们攻克基因的秘密,用于对付我们的战争?想都别想。
如果是中国医疗科技企业,我愿意贡献我的电脑。还有我的电费。
deam 发表于 2013-2-6 10:19
理论上说使用率非常低的汽车还不如不买。最节能的方式是坐公交。

现在高性能GPU相当普及了,但很多人买 ...
可观的?现在好的Pc机处理器做浮点运算也就是几十几百GIPS级别的,一篇10年的报道指出,“ 功耗问题在性能不断提高过程中变得日益突出,令普通的PC用户难以想象。以天河一号为例,如果采用CPU的同构架构,每天仅电费开支就会超过15万元,而如果采用CPU+GPU的混合架构,在同样性能指标下可以节省2/3的功耗。 ”。那好,我们取5w元作为一台虽然不是登峰造极、但已然很不错的大型计算机开一天的模糊的能源消耗标准;
家用机取400w,取其1/10作为分布式计算的能源消耗标准,40w*24h=0.96度、电价按北京为例,最低的阶梯一度5毛,0.96*0.488=0.47元,粗略计算折合约10w台个人pc。这10w台一天能搞个毛?很多事情,往往宣传上只说好不说坏的,越是科学技术,倒越往往如此,也是有趣。
为什么电费取北京的标准?不是因为贵,也不是因为熟悉,而主要是因为北京主要采用火电,说白了就是煤电。

我说了我只是从客观的能源消耗说明问题。你再怎么主观提到利用价值何其大,也无法回避这一点。当前的pc机水平导致分布计算是很浪费能源的,因为分散了,看不到而已。这种隐形的浪费是最难消灭的。挂机搞分布计算就更蛋痛了。那些挂机开p2p的仁兄也同样可以检点一下自己多花了多少电费,真的一点也不少。

如果我要做一个小项目,我能否从分布式计算这里申请寻求到所希望的计算能力?答案是不确定的。这种事,跟申请大型计算机的机会、或者天文学家申请天文台的使用时间一样。客观存在的运算能力,是否能依据人的主观意志分享得到,是政策、资金、项目性质、乃至个人公关能力等多重因素决定的,而不是一个纯技术问题。分布式计算不是宣传中所说的侠盗、偏袒弱势者。
另外前面有人说的云计算,和分布式计算不是一回事,云计算是个复杂的概念,简单说其意义是最终用户可以在自己的终端设备上方便地使用公用的计算能力,只需付出相应代价,这眼前是概念多于实质。对硬件上而言这样很节约,但对通信提出了很高要求。

事实上这个楼主不断地纯表顶贴而乏人问津,某种意义上也说明了分布式计算在普通人群中的尴尬,何况还是在科学方面观念比较正统的CD。我本来想举报的,又一想这人或多或少也是出于诚心。
无论是否还有回复,我都不打算再回这个帖子了。
Haku2004 发表于 2013-2-6 14:24
可观的?现在好的Pc机处理器做浮点运算也就是几十几百GIPS级别的,一篇10年的报道指出,“ 功耗问题在性 ...
你忽视一点就是能跑这种分布计算的家用机总体的更新换代还是比较快的,而大量的HPC还是要用较长时间才更新的。

换句话说,只要每年新更新的高性能家用机都用上这种分布平台,能源效率就能达到非常高的程度了。
wcgsjo 发表于 2013-2-6 10:35
够傻的说。医药企业没钱?药价那么贵。真不要脸。
说的是我国引用分布式计算的成果。再说如果能很快研究出攻克各种绝症的药物或者方法。医药企业再多的钱都能投入!问题是攻克绝症研究这个是一个大工程,现在连人类各种基因的功能很多都没有了解。不单是靠药厂自己研究。还有很多其它非盈利科研机构等着的


chummycheer 发表于 2013-2-6 12:38
然后知识产权归谁呢?我们的电脑帮外国医疗科技巨头计算,然后我们再花巨资从他们手里买药?或者他们攻克基 ...
分布式计算主要是帮助非营利研究
我从02年参加了SETI、Einstien、Climate,觉得还是很有趣的
跑过几年SETI的飘过,不喜欢BONIC的界面,还是老程序好,可以看着进度条一块一块地增加