🌾

Panen Tweet

Library Python powerful untuk scraping Twitter/X menggunakan Selenium. Ekstrak tweet berdasarkan keyword, tanggal, bahasa dengan mudah.

v1.0.5 Python 3.7+ MIT License Open Source
pip install panen-tweet

📦 Instalasi

Instalasi dari PyPI (Recommended)

Terminal
pip install panen-tweet

Instalasi dari Source

Terminal
git clone https://github.com/Dhaniaaa/panen-tweet.git
cd panen-tweet
pip install -e .

🐧 Running di Google Colab / Linux

Google Colab
# 1. Install library
!pip install panen-tweet

# 2. Install Google Chrome
!panen-tweet install-chrome

🔑 Mendapatkan Auth Token

Sebelum menggunakan, Anda perlu mendapatkan auth_token dari akun Twitter/X Anda:

1

Login ke X.com

Buka x.com dan login menggunakan browser

2

Buka Developer Tools

Tekan F12 untuk membuka Developer Tools

3

Buka Tab Application

Pilih tab Application (Chrome) atau Storage (Firefox)

4

Temukan Cookie

Expand Cookies → klik https://x.com

5

Salin auth_token

Cari cookie auth_token dan salin nilainya

⚠️ PENTING - Keamanan Token

  • • JANGAN bagikan auth_token Anda kepada siapapun
  • • JANGAN commit auth_token ke Git/GitHub
  • • Token ini memberikan akses penuh ke akun Twitter/X Anda
  • • Jika token ter-expose, segera ganti password Twitter/X Anda

🛡️ Developer Disclaimer

Kemanan privasi Anda adalah prioritas kami.

  • Token Anda HANYA digunakan secara lokal di komputer Anda.
  • Developer TIDAK PERNAH menyimpan, mencatat, atau mengirim token Anda ke server manapun.
  • Library ini 100% open source, Anda bisa memeriksa kode sumbernya di GitHub.

🚀 Cara Penggunaan

Opsi 1: Command Line Interface (Termudah)

Terminal
panen-tweet

Program akan meminta: auth_token, keyword, jumlah tweet, tanggal, bahasa, dan jenis tweet.

Opsi 2: Library Python

Python
from panen_tweet import TwitterScraper
import datetime, os

# Setup
auth_token = os.getenv('TWITTER_AUTH_TOKEN')

# Inisialisasi scraper
scraper = TwitterScraper(
    auth_token=auth_token,
    scroll_pause_time=5,
    headless=True
)

# Scraping
df = scraper.scrape_with_date_range(
    keyword="python programming",
    target_per_session=100,
    start_date=datetime.datetime(2024, 1, 1),
    end_date=datetime.datetime(2024, 1, 7),
    interval_days=1,
    lang='en',
    search_type='latest'
)

# Simpan hasil
if df is not None:
    scraper.save_to_csv(df, "hasil.csv")

Opsi 3: Environment Variable

💡 Recommended untuk security - simpan token di environment variable

PowerShell
$env:TWITTER_AUTH_TOKEN = "token"
panen-tweet
Linux/Mac
export TWITTER_AUTH_TOKEN="token"
panen-tweet

📊 Format Output

Data yang dihasilkan dalam format CSV dengan kolom:

username
handle
timestamp
tweet_text
url
reply_count
retweet_count
like_count

⚙️ Parameter & Konfigurasi

TwitterScraper Parameters

Parameter Tipe Default Deskripsi
auth_token string None Cookie auth_token (WAJIB)
scroll_pause_time int 5 Jeda antar scroll (detik)
headless bool True True = tanpa GUI

scrape_with_date_range Parameters

Parameter Deskripsi
keyword Kata kunci pencarian (WAJIB)
target_per_session Jumlah target tweet per sesi
start_date / end_date Rentang tanggal (WAJIB)
interval_days Interval hari per sesi (1 = per hari)
lang Kode bahasa: 'id', 'en', 'ja', dll
search_type 'top' atau 'latest'

💡 Tips & Tricks

🎯 Scraping Banyak Tweet

  • • Gunakan interval kecil (1 hari)
  • • Set target_per_session 50-200
  • • scroll_pause_time 7-10 detik untuk koneksi lambat

⚡ Menghindari Rate Limit

  • • scroll_pause_time minimal 5 detik
  • • Beri jeda antar sesi scraping
  • • Jangan jalankan multiple instance

Kode Bahasa

id - Indonesia en - English ja - Japanese es - Spanish fr - French

🐛 Troubleshooting

Error: "WebDriver not found"

Package otomatis download ChromeDriver. Pastikan Chrome terinstall.

Error: "Auth token invalid"

  • 1. Login ulang ke x.com
  • 2. Dapatkan auth_token baru
  • 3. Pastikan tidak ada spasi saat copy-paste

Error: "No tweets found"

  • • Periksa koneksi internet
  • • Verifikasi auth_token masih valid
  • • Coba keyword lain atau rentang tanggal berbeda

Siap Menggunakan Panen Tweet?

Install sekarang dan mulai scraping data tweet