En introduktion til webskrabning ved hjælp af R

Med boom af e-handel er virksomheder gået online. Kunder ser også efter produkter online. I modsætning til den offline markedsplads kan en kunde sammenligne prisen på et produkt, der er tilgængeligt forskellige steder i realtid.

Derfor er konkurrencedygtige priser noget, der er blevet den mest afgørende del af en forretningsstrategi.

For at holde priserne på dine produkter konkurrencedygtige og attraktive, skal du overvåge og holde styr på de priser, der er fastsat af dine konkurrenter. Hvis du ved, hvad dine konkurrenters prisstrategi er, kan du derfor justere din prisstrategi for at få en fordel over dem.

Derfor er prisovervågning blevet en vital del af processen med at drive en e-handelsvirksomhed.

Du spekulerer måske på, hvordan du får fat i dataene for at sammenligne priser.

De tre bedste måder at få de data, du har brug for til prissammenligning

1. Feeds fra handlende

Som du måske ved, er der flere prissammenligningssider tilgængelige på internettet. Disse websteder kommer ind i en slags forståelse med de virksomheder, hvor de får dataene direkte fra dem, og som de bruger til prissammenligning.

Disse virksomheder etablerer en API eller bruger FTP til at levere dataene. Generelt er en henvisningskommission det, der gør et prissammenligningssted økonomisk levedygtigt.

2. Produktfeeds fra tredjeparts-API'er

På den anden side er der tjenester, der tilbyder e-handelsdata via en API. Når en sådan tjeneste bruges, betaler tredjepart for datamængden.

3. Webskrabning

Webskrabning er en af ​​de mest robuste og pålidelige måder at få webdata fra internettet på. Det bruges i stigende grad i prisintelligens, fordi det er en effektiv måde at hente produktdataene fra e-handelswebsteder på.

Du har muligvis ikke adgang til den første og anden mulighed. Derfor kan webskrabning komme til din redning. Du kan bruge webskrabning til at udnytte datakraften til at nå frem til konkurrencedygtige priser for din virksomhed.

Webskrabning kan bruges til at få aktuelle priser for det aktuelle markedsscenarie og mere generelt e-handel. Vi bruger webskrabning til at hente dataene fra et e-handelssted. I denne blog lærer du, hvordan man skraber navnene og priserne på produkter fra Amazon i alle kategorier under et bestemt mærke.

Uddrag af data fra Amazon med jævne mellemrum kan hjælpe dig med at holde styr på markedstendenser for prisfastsættelse og gøre det muligt for dig at indstille dine priser i overensstemmelse hermed.

Indholdsfortegnelse

  1. Webskrabning til prissammenligning
  2. Webskrabning i R
  3. Implementering
  4. Slutnote

1. Webskrabning til prissammenligning

Som markedets visdom siger, er prisen alt. Kunderne træffer deres købsbeslutninger baseret på pris. De baserer deres forståelse af et produkts kvalitet på pris. Kort sagt er prisen det, der driver kunderne og dermed markedet.

Derfor er prissammenligningssider meget efterspurgte. Kunder kan let navigere gennem hele markedet ved at se på priserne på det samme produkt på tværs af mærkerne. Disse prissammenligningswebsteder ekstraherer prisen for det samme produkt fra forskellige websteder.

Sammen med pris skraber websites med prissammenligning også data som produktbeskrivelse, tekniske specifikationer og funktioner. De projicerer hele spektret af oplysninger på en enkelt side på en sammenlignende måde.

Dette svarer på det spørgsmål, som den potentielle køber har stillet i deres søgning. Nu kan den potentielle køber sammenligne produkterne og deres priser sammen med oplysninger såsom funktioner, betaling og forsendelsesmuligheder, så de kan identificere den bedst mulige tilbud til rådighed.

Prisoptimering har sin indvirkning på virksomheden i den forstand, at sådanne teknikker kan øge fortjenstmargenerne med 10%.

E-handel handler om konkurrencedygtige priser, og den har også spredt sig til andre forretningsområder. Tag sagen om rejser. Nu skraber selv rejserelaterede websteder prisen fra flyselskabers websteder i realtid for at give prissammenligning for forskellige flyselskaber.

Den eneste udfordring i dette er at opdatere dataene i realtid og holde sig opdateret hvert sekund, da priserne konstant ændrer sig på kildesiderne. Prissammenligningssider bruger Cron-job eller på visningstidspunktet for at opdatere prisen. Det vil dog hvile på konfigurationen af ​​webstedejeren.

Det er her, denne blog kan hjælpe dig - du vil være i stand til at udarbejde et skrabningscript, som du kan tilpasse til dine behov. Du vil være i stand til at udtrække produktfeeds, billeder, pris og alle andre relevante detaljer vedrørende et produkt fra en række forskellige websteder. Med dette kan du oprette din kraftfulde database til prissammenligningssite.

2. Webskrabning i R

Prissammenligning bliver besværlig, fordi det ikke er så let at få webdata - der er teknologier som HTML, XML og JSON til at distribuere indholdet.

Så for at få de data, du har brug for, skal du effektivt navigere gennem disse forskellige teknologier. R kan hjælpe dig med at få adgang til data, der er gemt i disse teknologier. Det kræver dog en smule dybtgående forståelse af R, før du kommer i gang.

Hvad er R?

Webskrabning er en avanceret opgave, som ikke mange mennesker udfører. Webskrabning med R er bestemt teknisk og avanceret programmering. En tilstrækkelig forståelse af R er afgørende for webskrabning på denne måde.

Til at begynde med er R et sprog til statistisk computing og grafik. Statistikere og minearbejdere bruger R meget på grund af dets udviklende statistiske software og dets fokus på dataanalyse.

En af grundene til, at R er en sådan favorit blandt dette sæt mennesker, er kvaliteten af ​​plot, der kan udarbejdes, inklusive matematiske symboler og formler, hvor det er nødvendigt.

R er vidunderligt, fordi det tilbyder et stort udvalg af funktioner og pakker, der kan håndtere data mining-opgaver.

rvest, RCrawler osv. er R-pakker, der bruges til dataindsamlingsprocesser.

In this segment, we will see what kinds of tools are required to work with R to carry out web scraping. We will see it through the use case of Amazon website from where we will try to get the product data and store it in JSON form.

Requirements

In this use case, knowledge of R is essential and I am assuming that you have a basic understanding of R. You should be aware of at least any one R interface, such as RStudio. The base R installation interface is fine.

If you are not aware of R and the other associated interfaces, you should go through this tutorial.

Now let’s understand how the packages we’re going to use will be installed.

Packages:

1. rvest

Hadley Wickham authored the rvest package for web scraping in R. rvest is useful in extracting the information you need from web pages.

Along with this, you also need to install the selectr and ‘xml2’ packages.

Installation steps:

install.packages(‘selectr’)
install.packages(‘xml2’)
install.packages(‘rvest’)

rvest contains the basic web scraping functions, which are quite effective. Using the following functions, we will try to extract the data from web sites.

  • read_html(url) : scrape HTML content from a given URL
  • html_nodes(): identifies HTML wrappers.
  • html_nodes(“.class”): calls node based on CSS class
  • html_nodes(“#id”): calls node based on id
  • html_nodes(xpath=”xpath”): calls node based on xpath (we’ll cover this later)
  • html_attrs(): identifies attributes (useful for debugging)
  • html_table(): turns HTML tables into data frames
  • html_text(): strips the HTML tags and extracts only the text

2. stringr

stringr comes into play when you think of tasks related to data cleaning and preparation.

There are four essential sets of functions in stringr:

  • stringr functions are useful because they enable you to work around the individual characters within the strings in character vectors
  • there are whitespace tools which can be used to add, remove, and manipulate whitespace
  • there are locale sensitive operations whose operations will differ from locale to locale
  • there are pattern matching functions. These functions recognize four parts of pattern description. Regular expressions are the standard one but there are other tools as well

Installation

install.packages(‘stringr’)

3. jsonlite

What makes the jsonline package useful is that it is a JSON parser/generator which is optimized for the web.

It is vital because it enables an effective mapping between JSON data and the crucial R data types. Using this, we are able to convert between R objects and JSON without loss of type or information, and without the need for any manual data wrangling.

This works really well for interacting with web APIs, or if you want to create ways through which data can travel in and out of R using JSON.

Installation

install.packages(‘jsonlite’)

Before we jump-start into it, let’s see how it works:

It should be clear at the outset that each website is different, because the coding that goes into a website is different.

Web scraping is the technique of identifying and using these patterns of coding to extract the data you need. Your browser makes the website available to you from HTML. Web scraping is simply about parsing the HTML made available to you from your browser.

Web scraping has a set process that works like this, generally:

  • Access a page from R
  • Instruct R where to “look” on the page
  • Convert data in a usable format within R using the rvest package

Now let’s go to implementation to understand it better.

3. Implementation

Let’s implement it and see how it works. We will scrape the Amazon website for the price comparison of a product called “One Plus 6”, a mobile phone.

You can see it here.

Step 1: Loading the packages we need

We need to be in the console, at R command prompt to start the process. Once we are there, we need to load the packages required as shown below:

#loading the package:> library(xml2)> library(rvest)> library(stringr)

Step 2: Reading the HTML content from Amazon

#Specifying the url for desired website to be scrappedurl <- ‘//www.amazon.in/OnePlus-Mirror-Black-64GB-Memory/dp/B0756Z43QS?tag=googinhydr18418-21&tag=googinkenshoo-21&ascsubtag=aee9a916-6acd-4409-92ca-3bdbeb549f80’
#Reading the html content from Amazonwebpage <- read_html(url)

In this code, we read the HTML content from the given URL, and assign that HTML into the webpage variable.

Step 3: Scrape product details from Amazon

Now, as the next step, we will extract the following information from the website:

Title: The title of the product.

Price: The price of the product.

Description: The description of the product.

Rating: The user rating of the product.

Size: The size of the product.

Color: The color of the product.

This screenshot shows how these fields are arranged.

Next, we will make use of HTML tags, like the title of the product and price, for extracting data using Inspect Element.

In order to find out the class of the HTML tag, use the following steps:

=> go to chrome browser => go to this URL => right click => inspect element

NOTE: If you are not using the Chrome browser, check out this article.

Based on CSS selectors such as class and id, we will scrape the data from the HTML. To find the CSS class for the product title, we need to right-click on title and select “Inspect” or “Inspect Element”.

As you can see below, I extracted the title of the product with the help of html_nodes in which I passed the id of the title — h1#title — and webpage which had stored HTML content.

I could also get the title text using html_text and print the text of the title with the help of the head () function.

#scrape title of the product> title_html  title  head(title)

The output is shown below:

We could get the title of the product using spaces and \n.

The next step would be to remove spaces and new line with the help of the str_replace_all() function in the stringr library.

# remove all space and new linesstr_replace_all(title, “[\r\n]” , “”)

Output:

Now we will need to extract the other related information of the product following the same process.

Price of the product:

# scrape the price of the product> price_html  price <- html_text(price_html)
# remove spaces and new line> str_replace_all(title, “[\r\n]” , “”)
# print price value> head(price)

Output:

Product description:

# scrape product description> desc_html  desc <- html_text(desc_html)
# replace new lines and spaces> desc  desc  head(desc)

Output:

Rating of the product:

# scrape product rating > rate_html  rate <- html_text(rate_html)
# remove spaces and newlines and tabs > rate  rate <- str_trim(rate)
# print rating of the product> head(rate)

Output:

Size of the product:

# Scrape size of the product> size_html  size_html  size <- html_text(size_html)
# remove tab from text> size <- str_trim(size)
# Print product size> head(size)

Output:

Color of the product:

# Scrape product color> color_html  color_html  color <- html_text(color_html)
# remove tabs from text> color <- str_trim(color)
# print product color> head(color)

Output:

Step 4: We have successfully extracted data from all the fields which can be used to compare the product information from another site.

Let’s compile and combine them to work out a dataframe and inspect its structure.

#Combining all the lists to form a data frameproduct_data <- data.frame(Title = title, Price = price,Description = desc, Rating = rate, Size = size, Color = color)
#Structure of the data framestr(product_data)

Output:

In this output we can see all the scraped data in the data frames.

Step 5: Store data in JSON format:

As the data is collected, we can carry out different tasks on it such as compare, analyze, and arrive at business insights about it. Based on this data, we can think of training machine learning models over this.

Data would be stored in JSON format for further process.

Follow the given code and get the JSON result.

# Include ‘jsonlite’ library to convert in JSON form.> library(jsonlite)
# convert dataframe into JSON format> json_data <- toJSON(product_data)
# print output> cat(json_data)

In the code above, I have included jsonlite library for using the toJSON() function to convert the dataframe object into JSON form.

At the end of the process, we have stored data in JSON format and printed it.

It is possible to store data in a csv file also or in the database for further processing, if we wish.

Output:

Following this practical example, you can also extract the relevant data for the same from product from //www.oneplus.in/6 and compare with Amazon to work out the fair value of the product. In the same way, you can use the data to compare it with other websites.

4. End note

As you can see, R can give you great leverage in scraping data from different websites. With this practical illustration of how R can be used, you can now explore it on your own and extract product data from Amazon or any other e-commerce website.

Et forsigtighedsord for dig: visse websteder har anti-skrabepolitikker . Hvis du overdriver det, blokeres du, og du begynder at se captchas i stedet for produktoplysninger. Selvfølgelig kan du også lære at arbejde dig rundt i captchas ved hjælp af forskellige tilgængelige tjenester. Du skal dog forstå lovligheden af ​​skrabedata og hvad du laver med de skrabede data.

Du er velkommen til at sende mig din feedback og forslag vedrørende dette indlæg!