您好,欢迎访问三七文档
一流的:数据库三大顶级会议SIGMOD,VLDB,ICDE,数据挖掘KDD,实际相关的还有机器学习ICML,还有信息检索的SIGIR;数据库的理论会议PODS,但它是理论的会议所以和咱们就不大相关了二流的:EDBT,ICDT,CIKM,SDM,ICDM,PKDD,还有ECML欧洲的机器学习会议(这个应该是1.5档的,比一般的二流好),这些会也不好中,中了也会会觉得不一定爽,你可能觉得再以努力就上一流了,哈哈。还有一些会,俺就懒得列了!下面是很早以前AI版的一个帖子,写得还不错,看看吧,哈哈————————————————————————————————————有些人的工作很原创,每年总有一些很新颖的东西。有的人文章很多,但主要都是follow别人的工作。Database领域有不少papermachine。有的地方,整个group就是一个大的papermachine。个人感觉数据库研究者倾向于把数据挖掘看作一个数据库的子领域,因而对数据挖掘的会议rating较低。然而对其他背景的人而言,数据挖掘是相对独立的一个新兴领域,因而对其会议rating比较高。SIGMOD:97分,数据库的最高会议,涉及范围广泛,稍偏应用(因为理论文章有PODS)。没说的,景仰如滔滔江水。这个会议不仅是double-blindreview,而且有rebuttalprocedure,可谓独树一帜,与众不同。VLDB:95分,非常好的数据库会议。与SIGMOD类似,涉及范围广泛,稍偏应用。从文章的质量来说,SIGMOD和VLDB难分伯仲,没有说谁比谁更高。他们的范围也几乎一样。不少牛人都认为,今年的rebuttalprocedure其实并不怎么成功。投稿太多,很难做到每一篇都公平公正。很多rebuttal没人看。double-blind是把双刃剑。这几年来每年都有人冒充牛人的风格来投稿,有的还真进去了。反而VLDB的审稿质量一直很高。每年的VLDB都有很理论的paper。一般来说,我感觉大家还是认为SIGMOD要好那么一点点。根据我个人读过的文章,也有这样的感觉。不过这个并不重要了,有差别也是那么一点。PODS:95分。是“数据库理论的最好会议,也是一个很好的理论会议”。每年总是co-locatedwithSIGMOD。感觉其中算法背景的人占主流(你可以数数PODS文章中有多少来自Motwanigroup),也有一部分AI背景的人(毕竟SIGART也是主办者之一)。它的影响力远不及SIGMOD,然而其中文章的质量比较整齐,variance小于SIGMOD(以及其他任何数据库会议)。有一位牛人说:“PODSneverhadareallybadpaper,”这是它值得骄傲的地方。KDD::fullpaper95分,poster/shortpaper90分。数据挖掘的最高会议。由于历史积累不足以及领域圈子较小,勿用讳言KDD目前比SIGMOD尚有所不如。我觉得我们可以这样类比:KDD:SIGMOD=CRYPTO:STOC。回顾密码学的历史,真正最牛的文章一般发在STOC/FOCS而非CRYPTO/EUROCRYPT,这和今天的数据挖掘何等类似!然而你看看今天的密码学文章,已经有顶级的密码学家(恕我不便写出名字)不再往STOC/FOCS投稿。我觉得同样的事情在不久的将来也会发生在数据挖掘中,让我们拭目以待。这几年来KDD的质量都很高。其fullpaper的质量高于SIGMOD/VLDB中数据挖掘方面的paper的质量。原因是SIGMOD/VLDB审稿人中数据挖掘的人很少,审稿标准不一定能掌握得很好。这几年好几篇SIGMOD/VLDB的数据挖掘paper都follow一些KDD的paper。而在KDD,要拿一篇fullpaper真难。去年复旦拿了一篇,实属难能可贵。今年他们又拿了一个SIGMODdemo,说明工作的确很扎实。听说在很多地方,如果能有一篇SIGMOD/VLDB/KDD,就能博士毕业,能有两篇就能找到不错的工作。“革命尚未成功,同志仍需努力!”ICDE:92分。很好的数据库会议,也是一个大杂烩。好处是覆盖面广、包容性强,坏处是文章水平参差不齐。EDBT:88分,不错的数据库会议,录取率很低然而历史积累不足,影响还明显不及ICDE。ICDT:88分,PODS的欧洲版,数据库理论第二会议。和SIGMOD/VLDB一样,ICDE和EDBT在质量和影响上都不相上下。其它的如CIKM,ICDM,SDM,SSDBM,PKDD等等都比以上的会议差一截。CIKM:85分。SDM:fullpaper90分,poster/shortpaper85分。SIAM的数据挖掘会议,与ICDM并列为数据挖掘领域的第二位,比KDD有明显差距。好像其中统计背景的人比较多,也有一部分机器学习背景的人,比较diversified。ICDM:fullpaper90分,poster/shortpaper85分。IEEE的数据挖掘会议,与SDM并列为数据挖掘领域的第二位,比KDD有明显差距。PKDD:83分(因为poster/shortpaper数量很少,所以不予区分)。好像是KDD的欧洲版,但与KDD差距很大。=zhaoyong04&id=24556IJCAI(1+):AI最好的综合性会议,1969年开始,每两年开一次,奇数年开.因为AI实在太大,所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,象machinelearning、computervision这么大的领域每次大概也就10篇左右,所以难度很大.不过从录用率上来看倒不太低,基本上20%左右,因为内行人都会掂掂分量,没希望的就别浪费reviewer的时间了.最近中国大陆投往国际会议的文章象潮水一样,而且因为国内很少有能自己把关的研究组,所以很多会议都在complain说中国的低质量文章严重妨碍了PC的工作效率.在这种情况下,估计这几年国际会议的录用率都会降下去.另外,以前的IJCAI是没有poster的,03年开始,为了减少被误杀的好人,增加了2页纸的poster.值得一提的是,IJCAI是由貌似一个公司IJCAIInc.主办的(当然实际上并不是公司,实际上是个基金会),每次会议上要发几个奖,其中最重要的两个是IJCAIResearchExcellenceAward和Computer&ThoughtsAward,前者是终身成就奖,每次一个人,基本上是AI的最高奖(有趣的是,以AI为主业拿图灵奖的6位中,有2位还没得到这个奖),后者是奖给35岁以下的青年科学家,每次一个人.这两个奖的获奖演说是每次IJCAI的一个重头戏.另外,IJCAI的PCmember相当于其他会议的areachair,权力很大,因为是由PCmember去找reviewer来审,而不象一般会议的PCmember其实就是reviewer.为了制约这种权力,IJCAI的审稿程序是每篇文章分配2位PCmember,primaryPCmember去找3位reviewer,secondPCmember找一位.AAAI(1):美国人工智能学会AAAI的年会.是一个很好的会议,但其档次不稳定,可以给到1+,也可以给到1-或者2+,总的来说我给它1.这是因为它的开法完全受IJCAI制约:每年开,但如果这一年的IJCAI在北美举行,那么就停开.所以,偶数年里因为没有IJCAI,它就是最好的AI综合性会议,但因为号召力毕竟比IJCAI要小一些,特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是),所以比IJCAI还是要稍弱一点,基本上在1和1+之间;在奇数年,如果IJCAI不在北美,AAAI自然就变成了比IJCAI低一级的会议(1-或2+),例如2005年既有IJCAI又有AAAI,两个会议就进行了协调,使得IJCAI的录用通知时间比AAAI的deadline早那么几天,这样IJCAI落选的文章可以投往AAAI.在审稿时IJCAI的PCchair也在一直催,说大家一定要快,因为AAAI那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了.COLT(1):这是计算学习理论最好的会议,ACM主办,每年举行.计算学习理论基本上可以看成理论计算机科学和机器学习的交叉,所以这个会被一些人看成是理论计算机科学的会而不是AI的会.我一个朋友用一句话对它进行了精彩的刻画:一小群数学家在开会.因为COLT的领域比较小,所以每年会议基本上都是那些人.这里顺便提一件有趣的事,因为最近国内搞的会议太多太滥,而且很多会议都是LNCS/LNAI出论文集,LNCS/LNAI基本上已经被搞臭了,但很不幸的是,LNCS/LNAI中有一些很好的会议,例如COLT.CVPR(1):计算机视觉和模式识别方面最好的会议之一,IEEE主办,每年举行.虽然题目上有计算机视觉,但个人认为它的模式识别味道更重一些.事实上它应该是模式识别最好的会议,而在计算机视觉方面,还有ICCV与之相当.IEEE一直有个倾向,要把会办成盛会,历史上已经有些会被它从quality很好的会办成盛会了.CVPR搞不好也要走这条路.这几年录的文章已经不少了.最近负责CVPR会议的TC的chair发信说,对这个community来说,让好人被误杀比被坏人漏网更糟糕,所以我们是不是要减少好人被误杀的机会啊?所以我估计明年或者后年的CVPR就要扩招了.ICCV(1):介绍CVPR的时候说过了,计算机视觉方面最好的会之一.IEEE主办.ICCV逢奇数年开,开会地点以往是北美,欧洲和亚洲轮流,本来2003年定在北京,后来因Sars和原定05年的法国换了一下。ICCV'07年将首次在南美(巴西)举行.CVPR原则上每年在北美开,如果那年正好ICCV在北美,则该年没有CVPR.ICML(1):机器学习方面最好的会议之一.现在是IMLS主办,每年举行.参见关于NIPS的介绍.NIPS(1):神经计算方面最好的会议之一,NIPS主办,每年举行.值得注意的是,这个会每年的举办地都是一样的,以前是美国丹佛,现在是加拿大温哥华;而且它是年底开会,会开完后第2年才出论文集,也就是说,NIPS'05的论文集是06年出.会议的名字是AdvancesinNeuralInxxxxationProcessingSystems,所以,与ICMLECML这样的标准的机器学习会议不同,NIPS里有相当一部分神经科学的内容,和机器学习有一定的距离.但由于会议的主体内容是机器学习,或者说与机器学习关系紧密,所以不少人把NIPS看成是机器学习方面最好的会议之一.这个会议基本上控制在MichaelJordan的徒子徒孙手中,所以对Jordan系的人来说,发NIPS并不是难事,一些未必很强的工作也能发上去,但对这个圈子之外的人来说,想发一篇实在很难,因为留给外人的口子很小.所以对Jordan系以外的人来说,发NIPS的难度比ICML更大.换句话说,ICML比较开放,小圈子的影响不象NIPS那么大,所以北美和欧洲人都认,而NIPS则有些人(特别是一些欧洲人,包括一些大家)坚决不投稿.这对会议本身当然并不是好事,但因为Jordan系很强大,所以它似乎也不太care.最近IMLS(国际机器学习学会)改选理事,有资格提名的人包括近三年在ICMLECMLCOLT发过文章的人,NIPS则被排除在外了.无论如何,这是一个非常好的会.ACL(1-):计算语言学/自然语言处理方面最好的会议,ACL(AssociationofComputationalLinguistics)主办,每年开.KR(1-):知识表示和推理方面最好的会议之一,实际上也是传统AI(即基于逻辑的AI)最好的会议之一.KRInc.主办,现在是偶数年开.SIGIR(1-):信息检索方面最好的会议,ACM主办,每年开.这个会现在小圈子气越来越重.信息检索应该不算AI,不过因为这里面用到机器学习越来越多,最近几年甚至有点机器
本文标题:数据挖掘主要会议
链接地址:https://www.777doc.com/doc-911966 .html