IT人
相关图书

C#获取远程网页中的所有链接URL(网络蜘蛛实现原理)

编辑:未知 文章来源:互联网 发布日期:2007-2-9 人气:

本文介绍网络蜘蛛获取网页中所有链接的方法,实现原理:使用System.Net.WebClient类获取远程网页内容,然后使用URL正则表达式分析Html代码中的链接。代码如下:

using System;
using System.Net;
using System.Text;
using System.Text.RegularExpressions;

namespace HttpGet
{
class Class1
{
[STAThread]
static void Main(string[] args)
{
System.Net.WebClient client = new WebClient();
byte[] page = client.DownloadData("http://news.163.com");
string content = System.Text.Encoding.UTF8.GetString(page);
string regex = "href=[\\\"\\\'](http:\\/\\/|\\.\\/|\\/)?\\w+(\\.\\w+)*(\\/\\w+(\\.\\w+)?)*(\\/|\\?\\w*=\\w*(&\\w*=\\w*)*)?[\\\"\\\']";
Regex re = new Regex(regex);
MatchCollection matches = re.Matches(content);

System.Collections.IEnumerator enu = matches.GetEnumerator();
while (enu.MoveNext() && enu.Current != null)
{
Match match = (Match)(enu.Current);
Console.Write(match.Value + "\r\n");
}
}
}
}

相关文章
网友对“C#获取远程网页中的所有链接URL(网络蜘蛛实现原理)”的评论
已有位网友对本文发表评论,下面显示最近10条评论。 查看所有评论
昵称:
评论内容:
Copyright ◎ 1998 - 2007 编程资料网 All Rights Reserved