引言
爬虫技术是指通过编程的方式,自动从互联网上获取和处理数据的技术。爬虫技术有很多应用场景,比如搜索引擎、数据分析、舆情监测、电商比价等。爬虫技术也是一门有趣的技术,可以让你发现网络上的各种有价值的信息。
本文将介绍如何使用ScrapySharp和C#语言,打造一个简单的新闻下载器,可以从指定的新闻网站上抓取新闻标题、摘要、正文、作者、发布时间等信息,并保存到本地文件中。本文的目的是让你在一小时内掌握ScrapySharp和C#的基本用法,以及爬虫技术的基本原理和技巧。
ScrapySharp和C#的介绍
ScrapySharp是一个基于.NET的爬虫框架,它提供了一系列的类和方法,可以方便地实现爬虫的功能,比如发送请求、解析响应、提取数据、保存数据等。ScrapySharp的核心类是ScrapingBrowser,它模拟了一个浏览器的行为,可以执行JavaScript、处理Cookie、设置代理等。ScrapySharp还支持CSS选择器和XPath语法,可以灵活地定位网页中的元素。
C#是一种面向对象的编程语言,它是.NET平台的主要语言,可以运行在Windows、Linux、Mac等操作系统上。C#语言简洁、强大、高效,拥有丰富的类库和工具,可以开发各种类型的应用程序,包括桌面应用、网站、移动应用、游戏等。C#还支持多线程编程,可以充分利用CPU的资源,提高程序的性能。
新闻下载器的设计
本文的新闻下载器的设计思路如下:
- 首先,定义一个News类,用来存储新闻的各种属性,比如标题、摘要、正文、作者、发布时间等。
- 然后,定义一个NewsDownloader类,用来实现新闻下载器的主要逻辑,包括以下几个方法:
- 构造方法,用来初始化ScrapingBrowser对象,设置代理、超时、用户代理等参数。
- GetNewsUrls方法,用来从指定的新闻网站的首页上,获取所有新闻的链接,并返回一个字符串列表。
- GetNewsContent方法,用来从指定的新闻链接上,获取新闻的内容,并返回一个News对象。
- SaveNews方法,用来将一个News对象保存到本地文件中,文件名为新闻的标题,文件格式为txt。
- DownloadNews方法,用来下载所有新闻,并保存到本地文件夹中,文件夹名为新闻网站的域名。
- 最后,定义一个Program类,用来作为程序的入口,创建一个NewsDownloader对象,并调用其DownloadNews方法,传入要爬取的新闻网站的地址。
新闻下载器的代码
本文的新闻下载器的代码如下:
using System;
using System.Collections.Generic;
using System.IO;
using System.Linq;
using System.Net;
using System.Text;
using System.Threading.Tasks;
using HtmlAgilityPack;
using ScrapySharp.Extensions;
using ScrapySharp.Network;
namespace NewsDownloader
{
// 定义一个News类,用来存储新闻的各种属性
public class News
{
public string Title { get; set; } // 标题
public string Summary { get; set; } // 摘要
public string Content { get; set; } // 正文
public string Author { get; set; } // 作者
public string Time { get; set; } // 发布时间
}
// 定义一个NewsDownloader类,用来实现新闻下载器的主要逻辑
public class NewsDownloader
{
private ScrapingBrowser browser; // 定义一个ScrapingBrowser对象,用来模拟浏览器的行为
//亿牛云 设置爬虫代理加强版
private string proxyDomain = "http://www.16yun.cn"; // 定义代理的域名
private int proxyPort = 9010; // 定义代理的端口
private string proxyUser = "16YUN"; // 定义代理的用户名
private string proxyPass = "16IP"; // 定义代理的密码
// 构造方法,用来初始化ScrapingBrowser对象,设置代理、超时、用户代理等参数
public NewsDownloader()
{
browser = new ScrapingBrowser();
browser.Timeout = TimeSpan.FromSeconds(10); // 设置超时时间为10秒
browser.UserAgent = new FakeUserAgent("Chrome", 88.0); // 设置用户代理为Chrome 88.0
browser.UseDefaultCookiesParser = false; // 禁用默认的Cookie解析器
browser.Proxy = new WebProxy(proxyDomain, proxyPort); // 设置代理
browser.Proxy.Credentials = new NetworkCredential(proxyUser, proxyPass); // 设置代理的凭证
}
// GetNewsUrls方法,用来从指定的新闻网站的首页上,获取所有新闻的链接,并返回一个字符串列表
public List<string> GetNewsUrls(string url)
{
List<string> newsUrls = new List<string>(); // 定义一个字符串列表,用来存储新闻的链接
try
{
WebPage homePage = browser.NavigateToPage(new Uri(url)); // 使用ScrapingBrowser对象访问新闻网站的首页,并获取WebPage对象
HtmlNode homeNode = homePage.Html; // 从WebPage对象中获取HtmlNode对象,表示网页的HTML文档
IEnumerable<HtmlNode> newsNodes = homeNode.CssSelect("a[href*='/news/']"); // 使用CSS选择器,从HtmlNode对象中获取所有包含'/news/'的a标签的HtmlNode对象,表示新闻的链接
foreach (HtmlNode newsNode in newsNodes) // 遍历所有新闻的链接
{
string newsUrl = newsNode.GetAttributeValue("href", null); // 从HtmlNode对象中获取href属性的值,表示新闻的链接
if (newsUrl != null && !newsUrls.Contains(newsUrl)) // 如果新闻的链接不为空,且不在字符串列表中
{
newsUrls.Add(newsUrl); // 将新闻的链接添加到字符串列表中
}
}
}
catch (Exception ex) // 捕获异常
{
Console.WriteLine("GetNewsUrls error: " + ex.Message); // 在控制台输出异常信息
}
return newsUrls; // 返回字符串列表
}
// GetNewsContent方法,用来从指定的新闻链接上,获取新闻的内容,并返回一个News对象
public News GetNewsContent(string url)
{
News news = new News(); // 定义一个News对象,用来存储新闻的内容
try
{
WebPage newsPage = browser.NavigateToPage(new Uri(url)); // 使用ScrapingBrowser对象访问新闻的链接,并获取WebPage对象
HtmlNode newsNode = newsPage.Html; // 从WebPage对象中获取HtmlNode对象,表示网页的HTML文档
HtmlNode titleNode = newsNode.CssSelect("h1").FirstOrDefault(); // 使用CSS选择器,从HtmlNode对象中获取第一个h1标签的HtmlNode对象,表示新闻的标题
HtmlNode summaryNode = newsNode.CssSelect("p.summary").FirstOrDefault(); // 使用CSS选择器,从HtmlNode对象中获取第一个p标签,且class属性为summary的HtmlNode对象,表示新闻的摘要
HtmlNode contentNode = newsNode.CssSelect("div.article-content").FirstOrDefault(); // 使用CSS选择器,从HtmlNode对象中获取第一个div标签,且class属性为article-content的HtmlNode对象,表示新闻的正文
HtmlNode authorNode = newsNode.CssSelect("span.author").FirstOrDefault(); // 使用CSS选择器,从HtmlNode对象中获取第一个span标签,且class属性为author的HtmlNode对象,表示新闻的作者
HtmlNode timeNode = newsNode.CssSelect("span.time").FirstOrDefault(); // 使用CSS选择器,从HtmlNode对象中获取第一个span标签,且class属性为time的HtmlNode对象,表示新闻的发布时间
if (titleNode != null) // 如果标题节点不为空
{
news.Title = titleNode.InnerText.Trim(); // 从HtmlNode对象中获取文本内容,并去除两端的空白字符,赋值给News对象的Title属性
}
if (summaryNode != null) // 如果摘要节点不为空
{
news.Summary = summaryNode.InnerText.Trim(); // 从HtmlNode对象中获取文本内容,并去除两端的空白字符,赋值给News对象的Summary属性
}
if (contentNode != null) // 如果正文节点不为空
{
news.Content = contentNode.InnerText.Trim(); // 从HtmlNode对象中获取文本内容,并去除两端的空白字符,赋值给News对象的Content属性
}
if (authorNode != null) // 如果作者节点不为空
{
news.Author = authorNode.InnerText.Trim(); // 从HtmlNode对象中获取文本内容,并去除两端的空白字符,赋值给News对象的Author属性
}
if (timeNode != null) // 如果时间节点不为空
{
news.Time = timeNode.InnerText.Trim(); // 从HtmlNode对象中获取文本内容,并去除两端的空白字符,赋值给News对象的Time属性
}
}
catch (Exception ex) // 捕获异常
{
Console.WriteLine("GetNewsContent error: " + ex.Message); // 在控制台输出异常信息
}
return news; // 返回News对象
}
// SaveNews方法,用来将一个News对象保存到本地文件中,文件名为新闻的标题,文件格式为txt
public void SaveNews(News news, string folder)
{
try
{
string fileName = news.Title + ".txt"; // 定义文件名为新闻的标题加上.txt后缀
string filePath = Path.Combine(folder, fileName); // 定义文件路径为文件夹和文件名的组合
using (StreamWriter writer = new StreamWriter(filePath, false, Encoding.UTF8)) // 使用StreamWriter对象,以UTF-8编码,覆盖模式,打开或创建文件
{
writer.WriteLine("标题:" + news.Title); // 写入新闻的标题
writer.WriteLine("摘要:" + news.Summary); // 写入新闻的摘要
writer.WriteLine("正文:" + news.Content); // 写入新闻的正文
writer.WriteLine("作者:" + news.Author); // 写入新闻的作者
writer.WriteLine("时间:" + news.Time); // 写入新闻的时间
}
}
catch (Exception ex) // 捕获异常
{
Console.WriteLine("SaveNews error: " + ex.Message); // 在控制台输出异常信息
}
}
// DownloadNews方法,用来下载所有新闻,并保存到本地文件夹中,文件夹名为新闻网站的域名
public void DownloadNews(string url)
{
try
{
Uri uri = new Uri(url); // 定义一个Uri对象,表示新闻网站的地址
string folder = uri.Host; // 定义文件夹名为Uri对象的Host属性,表示新闻网站的域名
if (!Directory.Exists(folder)) // 如果文件夹不存在
{
Directory.CreateDirectory(folder); // 创建文件夹
}
List<string> newsUrls = GetNewsUrls(url); // 调用GetNewsUrls方法,获取所有新闻的链接
Parallel.ForEach(newsUrls, newsUrl => // 使用Parallel类的ForEach方法,对所有新闻的链接进行并行处理,提高采集效率
{
News news = GetNewsContent(newsUrl); // 调用GetNewsContent方法,获取新闻的内容
SaveNews(news, folder); // 调用SaveNews方法,将新闻保存到本地文件中
Console.WriteLine("Downloaded: " + news.Title); // 在控制台输出下载成功的新闻的标题
});
Console.WriteLine("Download completed!"); // 在控制台输出下载完成的提示
}
catch (Exception ex) // 捕获异常
{
Console.WriteLine("DownloadNews error: " + ex.Message); // 在控制台输出异常信息
}
}
}
// 定义一个Program类,用来作为程序的入口
class Program
{
static void Main(string[] args)
{
NewsDownloader downloader = new NewsDownloader(); // 创建一个NewsDownloader对象
downloader.DownloadNews("https://www.bbc.com/news"); // 调用其DownloadNews方法,传入要爬取的新闻网站的地址
Console.ReadKey(); // 等待用户按键
}
}
}
结论
本文介绍了如何使用ScrapySharp和C#语言,打造一个简单的新闻下载器,可以从指定的新闻网站上抓取新闻标题、摘要、正文、作者、发布时间等信息,并保存到本地文件中。本文的目的是让你在一小时内掌握ScrapySharp和C#的基本用法,以及爬虫技术的基本原理和技巧。文章来源:https://www.toymoban.com/news/detail-790942.html
本文的技术文章和代码仅供参考,你可以根据自己的需求和兴趣,修改或扩展它们,实现更多的功能,比如添加异常处理、日志记录、数据清洗、数据分析等。希望本文能对你的学习和开发有所帮助。文章来源地址https://www.toymoban.com/news/detail-790942.html
到了这里,关于一小时掌握:使用ScrapySharp和C#打造新闻下载器的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!