郑昀 20110306 集中回答一下网友对互联网信息监测的提问。
对于社区化信息挖掘、互联网海量信息挖掘,抽样是被迫的,但它仍然是一个好方法。 1.为什么被迫抽样?
互联网热点追踪,本身就不可能做到全面覆盖,毕竟你公司又不是Google,即使是Google,它也监控不了Facebook。
2.少量数据上也可以做特征提取 关于数据抽样这方面,可以参考郑昀的文章:
如果你没有成为新浪微博的官方合作伙伴(不仅仅是应用获得审批的开发者),那么搜索接口你是调用受限的,但至少1、2分钟调用一次是可以的,所以只要你不是大公司的人,一定拿不到微博转发行为的90%数据,你只能在10%数据上做文章。
根据传播学原理,热点追踪只需要在传播节点上做拦截即可。这也就是玩聚SR的设计原理,参考郑昀的文章:http://www.cnblogs.com/zhengyun_ustc/archive/2011/02/05/aboutidea.html ,不需要全网抓取论坛、博客、微博的帖子,只需要在收藏、网摘、RSS阅读器、Twitter等传播节点上追踪大家分享、推荐、收藏、转载的链接和文字即可。
抓新浪微博或国内微博的人,基本都是几条腿走路:
关于特征抽取,你可以搜索以下关键词配搭: 3.处理数据的套路套路一:
4.是语义还是统计学?由于我们玩聚网的创建人之一是统计学科班出身,所以我们基本都是从统计角度出发思考特征提取。包括情感趋势分析(Setiment Analysis,简称SA),也都是走统计路,虽然我们也会计算否定句、否定之否定、疑问句等常见句式,但后来我慢慢认为我们做的不是语义应用,只能说是自然语言处理应用或数据挖掘应用。我们常说的所谓“机器智能”,哪怕是“机器学习”,也只是在词频啦、权重啦、TF/IDF啦、重复次数啦、各种影响因子啦等上面做做文章,距离机器理解文章内容还远的很哪远的很。
郑昀 北京报道 |
|
来自: thomas tian > 《我的图书馆》