Analisis Tren Pasar Kerja Ilmu Data untuk 2021 | oleh Menuju Tim AI | Mei 2021

Apakah Anda sedang mempersiapkan wawancara kerja ilmu data pada tahun 2021? Kami telah menganalisis tren perekrutan dari lebih dari 3000+ postingan pekerjaan ilmu data di beberapa portal karier online. Semoga wawasan ini akan membantu Anda bersiap untuk wawancara dengan menganalisis ekspektasi pemberi kerja dan permintaan pasar secara keseluruhan.

Peluang sains data dan pembelajaran mesin di AS semakin baik setiap tahun. Perusahaan lintas industri dan fungsi (TI, pemasaran, konsultasi, dll.) Telah mulai meningkatkan penggunaan dan kebutuhan akan data scientist dalam hal permintaan perusahaan akan data scientist. Faktanya, menurut laporan Prospek Pekerjaan baru-baru ini dari Biro Statistik Tenaga Kerja AS, permintaan perusahaan diperkirakan akan tumbuh pesat dalam dekade mendatang.

Sebagai seorang data scientist, Anda dapat mengharapkan kompensasi yang baik atas keterampilan Anda. Dalam upaya untuk memahami peran saat ini dan seperti apa permintaan perusahaan di masa depan, Kami telah melakukan penelitian kami sendiri tentang peran ilmuwan data, serta mendalami portal pekerjaan untuk mencari tahu persis seperti apa perusahaan rintisan dan perusahaan AS. sedang mencari kandidat.

Untuk menganalisis tren saat ini dan memahami signifikansi, wawasan, dan permintaan pasarnya, kami telah melangkah maju dan mencoba mencerahkan beberapa kesimpulan menarik bagi calon pencari kerja. Tujuan utama di balik analisis ini adalah untuk membantu pencari kerja dan transisi karier lebih memahami kebutuhan pasar saat ini untuk ilmuwan data dan praktisi pembelajaran mesin.

Analisis data berikut akan memberi kita gambaran tentang:

Perusahaan Teratas di AS Secara Aktif Merekrut Ilmuwan Data ? Lokasi Teratas yang Mempekerjakan Ilmuwan Data di AS ?️Tingkat Pengalaman yang Diinginkan untuk Ilmuwan Data di AS ? Peran Pekerjaan Paling Banyak Permintaan Ditawarkan oleh Perusahaan Teratas yang Mempekerjakan Ilmuwan Data di AS ❗️ Tren Posisi dalam Kelompok Berbeda Tingkat Pengalaman 15 Keterampilan Atas Permintaan untuk Ilmuwan Data di AS ? Bahasa Pemrograman Teratas untuk Lowongan Kerja Data Scientist di AS Alat Visualisasi Data Teratas untuk Lowongan Kerja Ilmu Data di Kerangka Kerja Pembelajaran Mendalam USTop untuk Lowongan Kerja Ilmu Data di USTop Big Data Technologies for Data Scientist Job Postings di USTop Web Frameworks for Data Scientist Job Postings in the USFinal Thoughts

Untuk memulai analisis, kami membutuhkan data terbaru dan akurat. Oleh karena itu, opsi terbaik tampaknya adalah mencari web dari beberapa portal pekerjaan populer di AS.

Scraping Web

Selenium adalah salah satu cara tercepat, terjangkau, dan andal untuk mengekstrak informasi yang relevan. Proyek analisis data ini menggunakan Selenium untuk mengikis situs web portal pekerjaan. Mengimpor paket yang diperlukan dan menyiapkan jalur driver chrome cukup mudah. Menekan 50 halaman dalam satu lingkaran di mana setiap halaman berisi deskripsi singkat dari 20 posting pekerjaan, membuat 3000+ posting pekerjaan untuk menganalisis data.

Yang terpenting, mengekstrak URL setiap posting pekerjaan akan membawa kita ke halaman rinci dari masing-masing posting pekerjaan di mana semua detail yang diperlukan untuk membuat kesimpulan ada.

import panda sebagai pd
impor numpy sebagai np
dari selenium import webdriver
dari selenium.common.exceptions import NoSuchElementExceptionchromepath = r’D: Drivers Chrome Driver chromedriver.exe’url_list = []untuk i dalam rentang (1, 50):
print (‘Membuka Halaman Pencarian’ + str (i))
page_url = ‘https://jobportalexample.com/data-scientist-jobs-‘+str(i)
driver = webdriver.Chrome (chromepath)
driver.get (page_url)
cetak (‘Mengakses Halaman Web Oke n’)
url_elt = driver.find_elements_by_class_name (“fw500”)
print (‘Sukses’)

untuk j di url_elt:
url = j.get_attribute (“href”)
url_list.append (url)

driver.close ()

Untuk memudahkan proses, URL disimpan sebagai DataFrame pandas.

url_list_copy_cleaned = [i for i in url_list]
out_company_df = pd.DataFrame (url_list_copy_cleaned, kolom =[‘Website’])
out_company_df.head () Gambar 2: Bingkai data.

Sekarang variabel `url_list_copy_cleaned` memiliki URL dari 3.000+ daftar pekerjaan. Langkah selanjutnya adalah mencapai semua 1.000 halaman dan mengekstrak detailnya.

Elemen yang akan di-scrap adalah:

✔️Perusahaan
✔️Lokasi
✔️Pengalaman
✔️ Peran
✔️ Keterampilan

pekerjaan = {‘peran’:[],
‘perusahaan’:[],
‘lokasi’:[],
‘pengalaman’:[],
‘keterampilan’:[]}

driver = webdriver.Chrome (chromepath)

untuk url di out_company_df[‘Website’]:
driver.get (url)
mencoba:
name_anchor = driver.find_element_by_class_name (‘pad-rt-8’)
name = name_anchor.text
pekerjaan[‘companies’].append (nama)
kecuali NoSuchElementException:
pekerjaan[‘companies’].append (np.nan)

mencoba:
role_anchor = driver.find_element_by_class_name (‘jd-header-title’)
role_name = role_anchor.text
pekerjaan[‘roles’].append (role_name)
kecuali NoSuchElementException:
pekerjaan[‘roles’].append (np.nan)

mencoba:
location_anchor = driver.find_element_by_class_name (‘location’)
location_name = location_anchor.text
pekerjaan[‘locations’].append (nama_lokasi)
kecuali NoSuchElementException:
pekerjaan[‘locations’].append (np.nan)

mencoba:
experience_anchor = driver.find_element_by_class_name (‘exp’)
experience = experience_anchor.text
pekerjaan[‘experience’].append (pengalaman)
kecuali NoSuchElementException:
pekerjaan[‘experience’].append (np.nan)

mencoba:
skill_anchor = driver.find_elements_by_class_name (“chip”)
each_skill = []
untuk keterampilan di skill_anchor:
each_skill.append (skill.text)
pekerjaan[‘skills’].append (each_skill)
kecuali NoSuchElementException:
pekerjaan[‘skills’].append (np.nan)

driver.close ()

Perhatikan, menangkap kesalahan NoSuchElementException sangat penting karena beberapa URL akan membawa kami langsung ke situs web perusahaan, bukan hanya laman detail lain dari situs web portal pekerjaan yang sama. Dalam kasus seperti itu, elemen HTML yang kami cari mungkin tidak ada, yang akan menimbulkan kesalahan.

Untuk penanganan data dan prapemrosesan yang lebih baik, memiliki data yang dipadatkan sebagai Pandas DataFrame adalah pilihan terbaik. Setelah semua langkah preprocessing, seperti menjatuhkan nilai null, memisahkan kolom, lokasi tokenisasi, kolom skill, dll., Dataset yang dibersihkan dibawa ke Tableau untuk visualisasi terbaik ?.

Jika Anda tidak terbiasa dengan Tableau, itu adalah perusahaan perangkat lunak visualisasi data interaktif Amerika yang berfokus pada intelijen bisnis[1].