Szukam programisty , która stworzy BARDZO PROSTY skrypt do monitorowania pozycji strony internetowej w wyszukiwarce Google. Ważne, żeby można było go zainstalować na dowolnej stronie (aplikacja webowa)
Skrypt powinien spełniać następujące wymagania:
Wymagania funkcjonalne:
Codziennie Sprawdzanie pozycji strony w wynikach wyszukiwania Google dla wybranych słów kluczowych.
Sprawdzanie do 200 pierwszych pozycji w wynikach wyszukiwania dla każdej frazy kluczowej.
Wyszukiwanie dla różnych wersji Google, w tym:
google.com
google.pl
google.de
google.es
oraz innych wersji Google w krajach europejskich.
Czyli:
wpisujemy adres strony/stron + przyporządkowane do niej słowa kluczowe - a skrypt ma sprawdzac kazdego dnia pozycje strony pod daną frazą i zapisywać w aplikacji webowej.
Korzystając z serwisu Zleca.pl wyrażasz zgodę na stosowanie plików cookies. Dowiedz się więcej.
X
02.11.2024
Dzień dobry, Jestem programistą z ponad 7 letnim doświadczeniem, chętnie podejmę się tego zadania, poniższa estymacja dotyczy wykonania serwisu wraz z frontendem aplikacji (dzięki któremu można pozyskiwać nowych klientów do aplikacji). Stworzenie aplikacji webowej do monitorowania pozycji strony w wyszukiwarce Google może być wykonane z wykorzystaniem kilku technologii, które zapewnią automatyczne monitorowanie i przechowywanie wyników. Oto propozycja rozwiązania i estymacja tego projektu: Propozycja rozwiązania Technologie: 1. Backend: • Node.js lub Python z frameworkiem Express (Node) lub Flask (Python) do obsługi logiki aplikacji i zadań automatyzacyjnych. • Google Search API lub scraper – Google oficjalnie nie oferuje pełnego API do monitorowania wyników wyszukiwania, więc konieczne może być użycie scraperów z dostosowaniem do zmiennych wyników. • CRON lub inny system zadań harmonogramowych do automatyzacji sprawdzania pozycji. • Baza danych: PostgreSQL/MySQL do przechowywania wyników wyszukiwania, historii i konfiguracji słów kluczowych. 2. Frontend: • React lub Vue.js do budowy interfejsu użytkownika. • Dashboard do wyświetlania pozycji słów kluczowych, historii i zmian pozycji. 3. Bezpieczeństwo: • Autoryzacja dostępu do danych. • Ochrona przed limitami blokującymi Google. Funkcjonalności: 1. Zarządzanie słowami kluczowymi: • Możliwość dodawania adresów URL i przyporządkowanych do nich słów kluczowych. • Opcja wyboru wersji Google dla każdego słowa kluczowego. 2. Codzienne monitorowanie pozycji: • Skrypt CRON, który codziennie uruchamia proces sprawdzania pozycji dla wszystkich dodanych słów kluczowych, do 200 pierwszych wyników. • Możliwość konfiguracji godzin sprawdzania. 3. Wyświetlanie wyników: • Dashboard z historią pozycji dla każdego słowa kluczowego. • Wykresy wizualizujące zmiany pozycji w czasie. 4. Obsługa wielu wersji Google: • Przechowywanie wersji kraju wyszukiwania (np., google.pl, google.de) oraz pozycji wyniku dla danego słowa kluczowego. 5. Powiadomienia i raporty: • Ewentualne wysyłanie e-maili z raportami dziennymi/tygodniowymi. • Opcja eksportu wyników do pliku CSV. Wyzwania i ograniczenia: • Scraping Google: Oficjalnie Google nie zezwala na scraping wyników wyszukiwania, więc wymaga to ostrożnego podejścia lub alternatywnego API. Możliwe jest skorzystanie z płatnych API, takich jak SERP API, co zwiększa dokładność i zmniejsza ryzyko blokady. • Bezpieczeństwo: Zapewnienie bezpiecznego dostępu do wyników i ograniczenie liczby zapytań, aby nie przekroczyć dziennych limitów i uniknąć blokady IP. Estymacja 1. Analiza i konfiguracja środowiska (6–8 godzin): Przygotowanie środowiska, wybór technologii i narzędzi. 2. Implementacja backendu (20–30 godzin): • Konfiguracja CRONa do uruchamiania codziennych zapytań. • Logika sprawdzania wyników dla wybranych wersji Google. • Obsługa błędów i retencji wyników w bazie. 3. Projektowanie i implementacja frontendowego dashboardu (20–30 godzin): • Strona główna z możliwością dodawania słów kluczowych i wybierania wersji Google. • Widok wyników wyszukiwania oraz wykresów historii. 4. Integracja z bazą danych (8–10 godzin): Konfiguracja bazy danych, schemat tabel. 5. Testowanie i wdrożenie (8–12 godzin): Testy poprawności działania, wydajności i bezpieczeństwa. 6. Dokumentacja i instrukcja obsługi (6–8 godzin). Szacowany czas całkowity: Około 70–100 godzin, przy założeniu użycia scraperów lub API do odczytywania wyników Google. Koszty Przy mojej stawce 100 zł/h całkowity koszt wyniósłby: • 70–100 godzin x 100 zł/h = 7 000–10 000 zł Dodatkowo mogą wystąpić koszty za dostęp do płatnych API (np. SERP API), które umożliwiają bezproblemowe i zgodne z zasadami Google sprawdzanie pozycji. Koszty API zależą od liczby zapytań, ale dla codziennych zapytań na niewielką skalę powinny być umiarkowane. Oczywiście, jeżeli życzą sobie Państwo, tylko backendu aplikacji i tam wypisywania pozycji, cena się zmniejszy o koszty wykonanie frontendu. Pozdrawiam serdecznie, Daniel Czerepak
8500 zł brutto
02.11.2024
Dzień Dobry, jestem w stanie zrealizować w przeciągu 3dni roboczych proszę o kontakt poprzez email: devartcode.kontakt@gmail.com Portfolio: https://wampus.pl
150 zł brutto
03.11.2024
Tworzymy nowoczesne, intuicyjne, i wydajne aplikacje webowe, które są oparte na najnowszych technologiach dostępnych na rynku. Prośba o kontakt mailowy w celu ustalenia szczegółów. • office@bycoherence.com • tel: 791-169-912