Report crawler projectprojekty
...oraz DevExpress Report Designer. Do Twoich kluczowych obowiązków będzie należeć: - Tworzenie gotowych raportów, rejestrów i formularzy do wydruku w DevExpress Reporting (Angular TypeScript) - Tworzenie edytowalnych raportów i zestawień w DevExpress Report Designer poprzez GUI Designer Raporty będą tworzone głównie na bazie istniejących raportów w innym systemie. Od kandydatów oczekuję: - Znajomość i doświadczenie w pracy z DevExpress Reporting i DevExpress Report Designer. - Zdolność do szybkiego zrozumienia wymagań projektu i implementacji odpowiednich funkcji. Poszukuję kogoś, kto nie tylko posiada niezbędne umiejętności, ale również ma doświadczenie w ich praktycznym zastosowaniu. Proszę podać przykład...
Poszukujemy osoby zdolnej do zaprogramowania narzędzia, które umożliwi nam analizę i selekcję informacji na stronach www. Celem jest stworzenie zaawansowanej bazy danych, która pozwoli na efektywne sortowanie i filtrację stron według specyficznych parametrów, takich jak poziom aktywności użytkowników. Naszym priorytetem jest zgromadzenie i organizacja informacji w sposób umożliwiający łatwe zarządzanie i dostęp do danych.
Cześć, Szukam kogoś, kto będzie w stanie wykonać dla mnie stronę internetową od podstaw. Wytyczne: - strona w formie katalogu - każdy produkt będzie miał tytuł, opis, kilka zdjęć oraz kilka krótkich dodatkowych informacji - potrzebny crawler, który będzie pobierał automatycznie dane tekstowe oraz zdjęcia z innej strony - zarządzanie treścią z poziomu panelu administracyjnego
I have a ready and working FMX app, it's not a big project. The application generally works, but customers often report that the application "hangs", suddenly closes, or stops responding. I am looking for a person who will verify the code and help optimize the application, correct problems. As I said, it's not a big project. Mam gotową i działającą aplikację FMX, nie jest to jakiś duży projekt. Aplikacja generalnie działa, ale klienci często zgłaszają, że aplikacja się "wiesza", nagle zamyka, czy przestaje odpowiadać. Poszukuję osoby, która zweryfikuje kod i pomoże zoptymalizować aplikację, poprawić problemy. Jak pisałem nie jest to duży projekt.
To complete forensic failure report. Must be experienced in mechanical/ material engineering. Please be advised that you are required to WRITE the analytical part of the report around 1000-1500 words, calculations might have to be included . SPECIFIC case study, materials provided. Zlecenie z zakresu inżynierii. Przyjmujący zlecenie musi miec wyksztalcenie kierunkowe. Zlecenie napisania części analitycznej raportu analizującego przyczyny usterki spawanej rury ze stali nierdzewnej (316). Czesc wprowadzajaca , opis przypadku zostały juz napisane (po angielsku). Raport dotyczy konkretnego przypadku (case study). Zalączone sa do tego diagramy, do których trzeba sie odnieść. Cżesc analityczna musi analizowac przyczyny usterki oraz je udowodnić. Okolo 1500 słow+ sprawd...
Poszukujemy oprogramowania pobierającego określone dane ze wskazanych stron web (określimy dokładnie wszystkie potrzebne dane), oraz zapisaniu ich do bazy danych. Baza danych będzie znajdywać się w chmurze AWS (RDS).Web scraper może działać jako serverless worker bądź jako skrypt odpalany na komputerze. Model danych w bazie danych musi być stworzony tak aby odczyt był prosty i szybki. Obecne wyżej wymieniona strona posiada zabezpieczenia przed web scrgapingiem.
Preferowana, ale nie wymagana platforma: C# .NET lub C Kompilacja + źródła Crawler będzie operował na wcześniej przygotowanych plikach. Logowanie na numer GG Wysyłanie wiadomości. Przepływ numerów między plikami: 'do wysłania' -> 'wysłano' Rotacja numerów wysyłających. Konfiguracja w pliku: - rotate: co ile wiadomości ma nastąpić przelogowanie - delay: co ile ma zostać wysłana kolejna wiadomość, wartość losowa z zakresu od-do Plik nadawców: kolumna numer-hasło Plik odbiorców: kolumna numerów Plik przetworzonych odbiorców: kolumna numerów Plik z treścią wiadomości Interfejs: Start/Stop
...Unterstützung bei dem Amazon Seller support: Was benötigen wir: Consulting Schalten von Kampagnen Account Management Einstellen von Bildern und Videos Content Kreieren der richtigen Keywords Advertising Verknüpfung von Aktionen Instagram / Facebook / Amazon 2 Wöchenticher Report mit aktiven- Ideen zur verbesserung gewünscht. Die Basis Wir haben ca. 5 Artikel in 2-3 Ausfühungen Und nun? Bitte unterbreite uns doch ein Angebot auf der gesendeten Basis (Siehe Anhang) Gerne stehe wir dir auch telefonisch zur Verfügung unter: Wir könnten uns auch eine Modell vorstellen, das je mehr wir verkaufen, desto mehr ka...
...me: sales results broken down by products profitability of investments broken down by regions or countries, the amount of costs and profits in individual quarters or months, budget broken down by weeks, months or years. I want to have black and white where and on what product I am spending my budget and where it is worth adding to the advertisement Data from google analytics and a report from the online store are available....
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firmy - z pliku tekstowego.
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Szykamy osoby która podejmie się zrealizowania crawlera, który będzie scrapował dla nas kilka danych z : - Crawler powinien odwiedzić zadany przez nas region np. - wejść w każdą z kategorii jakie są dostępne w menu np. berbershop, fryzjers, kosmetyczka itd. - Odwiedzić wszystkie rekordy (salony) z listingu kategorii i zebrać dla nas dane: - Nr telefonu - Nazwa salonu Jeśli istnieje: - adres www profilu facebook - adres www profilu instagram - adres strony www zatem każdy rekord powinien zawierać min. 2 dane max 5 danych. Dane mogą być zapisane w bazie danych lub w pliku. Program powinien działać na serwerze, moze byc napisany w java, php lub nodejs
...Zalozenia logiki: * crawler dodaje oferty do bazy danych * crawler nie dubluje ofert - rozpoznaje juz dodane * crawler normalizuje dane z oferty w zakresie -- podzial administracyjny (wojewodztwo, powiat, gmina, miasto) -- adres -- typ nieruchomosci - dom/mieszkanie/dzialka (rolna, budowlana, lesna etc) -- typ ogloszenia (sprzedaz, wynajem) -- rodzaj ogloszenia (prywatne, posrednik) -- link do strony -- zdjecia -- data utworzenia ogloszenia -- Identyfikator ogloszenia -- cena -- powierzchnia -- dane dodatkowe (liczba pokoi, pieter) -- opis * crawler dotyczy 2 stron (slownie: dwóch stron) z ogloszeniami (strony do uzgodnienia podczas nawiazania kontaktu) * crawler wykrywa blokade stron lub blad serwera Zalozenia techniczne: * crawler posi...
Witam, poszukuje wykonawcy web crawlera ktory ma za zadanie monitorowac zapas produktow w dowolnych wyznaczonych przezemnie sklepach internetowych. Funkcje na ktorych mi zalezy to: 1)Praca w srodowisku windows server. 2) Mozliwosc wczytania adresow url z produktami z pliku 3) zapis wartosci stanu magazynowego w bazie danych 4) mozliwosc ustawienia czestotliwosci pobierania danych z tego samego sklepu np. raz na dzien, raz na godzine, 5) Kreowanie raportu z tego jak zmienial sie stan magazynowy danego produktu w jednostce czasu. 1 dzien, tydzien, itd. 6) mozliwosc zastosowania datacenter proxy i regulowana czestotliwosc rotacji ip
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod WIndowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Cześć mam zlecenie do wykonania, chodzi o crawler dla otodom
1) Uzasadnienie do wniosku PROGRAM OPERACYJNY POLSKA WSCHODNIA Działanie 1.2 „Internacjonalizacja MŚP”- w zakresie C. Model biznesowy – stan obecny i propozycje zmian - Prezentując propozycje poszczególnych zmian dotychczasowego modelu biznesowego wg modelu Canvas (również w odniesieniu do tych elementów, które nie będą podlegały zmianom) należy uzasadnić propozycję poprzez odwołanie do konkretnych wyników przeprowadzonych badań bądź analiz w zakresie: 2) wpływ strony internetowej w kilku wersjach językowych na wzrost rozpoznawalności marki PL na rynkach zagranicznych uzasadniających jej budowę i promocje w celu Internacjonalizacji MŚP - prezentacja danych i opis na podstawie danych i informacji z internetu. 3) wpływ wielojęzykowej apl...
Poszukuje osoby do zarządzania projektem Projekt polega na sklonowaniu/pobranie przedmiotów opisów zdjęć z e-sklepów skatalogowaniu i zaimportowania do naszego sklepu na prestashop. Freelancer za rekrutowany będzie miał do wykonania następujący zakres prac: -Pozyskanie np. tutaj programisty który napiszę Web crawler dla jednej ze stron: -Pobranie kategorii/podkategori/przedmiotów, zdjęć, opisów, specyfikacji, marki, dodatkowych opcji i atrybutów oraz pdf jeśli istnieje do pliku .CSV -Postawienie sklepu na Prestashop, zakup szablonu, grafik i przygotowanie do funkcjonowania działalności sklepu łącznie ze stworzeniem menu kategorii oraz import przedmiotów z wcześniej przygotowanych .CSV
witam, potrzebuje prosty skrypt typu crawler-scraper, który wyciągnie określone dane ze stron. przykładowo na witrynie jest 100 stron, na każdej stronie tytuł serialu, nazwa odcinka i link. chciałbym, aby skrypt pobierał te dane z każdej ze 100 stron i zapisał do bazy danych.
Potrzebny mi crawler/scraper oparty na PHP, pozwalający wyszukiwać produkty spośród wybranych sklepów internetowych (Komputronik, , ProLine, NET-S) i pozwalać na synchroniczne zakupy (wspólny wirtualny koszyk dla wszystkich). Wyświetlanie produktów powinno być możliwe do edycji w oparciu o CSS. Potrzebna jest również możliwość filtrowania produktów (chodzi o części komputerowe) wg filtrów, używanych w tych sklepach.
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs. Wdrożyć całość na EC2
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs.
Witam, potrzebuję prostęgo parsera/crawlera stron internetowych, który: 1. Pobierze adres z danej mu listy serwisów internetowych i przejrzy wszystkie podstrony z danego adresu (kilka poziomów wgłąb, pozostając w jednej domenie). 2. Przeglądając podstrony wychwyci teksty pasujące do podanych razem z adresem wyrażeń regularnych (2- 3 wyrażenia). 3. Zapisze wyniki, np. w formie pliku CSV. 4. Po przejrzeniu podstron danego serwisu przejdzie do następnego serwisu z listy. Podsumowując, na wejściu mamy listę: [adres1], [wyrazenie reguralne 1], wyrazenie regularne 1] ... [adresX], [wyrazenie reguralne Xa], wyrazenie regularne Xb] A wynikiem prac jest lista plik w formacie: [podstrona 1 adresu 1], [test pasujący do wyrażenia 1], [tekst pasujący do wyrażenia 2...
Chciałbym zlecić napisanie programu, który działałby w sposób podobny do tego programu: Zależy mi żeby taki program mógł chodzić po stronach internetowych i zczytywać z nich linki do zewnętrznych stron. Przykład: chciałbym, żeby program podał mi listę wszystkich domen znajdujących się we wskazanym przeze mnie katalogu stron w sekcji 'medycyna'. Bardzo istotna jest tutaj możliwość zawężania crawlingu do określonych sekcji witryn. Można to zrobić np. po filtracji adresów url, które muszą zawierać np. jakiś ciąg znaków np 'medycyna'. Dodatkowo na samym końcu pracy program powinien w prosty sposób sprawdzać, czy dana domena istnieje, czy też nie. Może być to sprawdzane po nagłówkach. Nie ma potrzeby odpyty...
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Witam potzebuje aplikacje ktora pobierala by dane z ksiag wieczystych na podstawie listy nr ksiag oraz przechowywala dane w jakiejs tabeli dodatkowo aplikacja powinna miec zintegrowana obsluge Czy jest mozliwe wykonanie takiego zlecenia, jaka cena?
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Zlecę skrypt który uruchomiony pobierze z wybranych sklepów internetowych listę wszystkich produktów, a następnie z ich indywidualnych stron specyfikację każdego produktu i zebrane dane wgra do bazy MySQL, a obrazki do folderu "images". Skrypt będzie regularnie uruchamiany i w razie wykrycia zmiany ceny produktu ma ją aktualizować w bazie. Celem jest monitorowanie produktów pięciu z góry określonych sklepów internetowych. Tylko backend, zadnych widocznych elementów - chce po prostu te dane mieć w MySQL.
FUNKCJE SYSTEMU: - generowanie raportu z pliku csv / xml - baza generuje raport co 5 min. (skrypt ma pobierać plik ze wskazanej lokalizacji) - porównanie zawartości plików oraz wyświetlenie aktualnego stanu (jak nowy raport będzie miał 11 pozycji a stary 10 to system dodaje tylko 1 do bazy, jak będzie 9 to system sam usuwa ten którego brakuje) + ręczne zarządzanie. - dodawanie opisów co informacji z raportu (raport np. pokazuje 10 komputerów w sieci) - zapisywanie informacji z raportu do bazy - zapisywanie wyników do .pdf .doc , drukowanie, wysyłanie mailem. Powyższe informacje to ogólny zarys, dodatkowe funkcjonalności mogą wyjść w trakcie pracy. Posiadamy design w .psd który udostępnimy osobie zainteresowanej projektem. ...
...udostępnić danym użytkownikom content z modułu "courses" zarezerwowany dla poszczególnych grup. -Każda grupa dostając dostęp do kursu z modułu "courses" jak i testu z moduły "courses", generuje swój osobisty raport grupowy który wyświetla się w module "reports" (np. grupa X uczyła się z kursu "safety" oraz rozwiązała test "safety exam" wówczas w module "reports" pojawi się raport o nazwie "X group report" z wynikami tej grupy). -moduł "courses" Jako administrator mam możliwość tworzenia kursów e-learningowych dodając treść i testy sprawdzające aby te mogły zostać wyświetlone poszczególnym grupą przerabaiajcym dany materiał. Treść kursu moze ...
Poszukiwana osoba do wykonania projektu na temat crawlingu w pythonie 3.0 Projekt krótki, udostępniam materiały potrzebne w tworzeniu kodu.
Zlecę wykonanie projektu tj: -stworzenie kodu w języku python 3 (zagadnienie główne crawler zasobów) -objaśnienie go tj. funkcjonowanie Do projektu dołączam potrzebną literaturę w postaci pdfów. Wystarczy gotowe wzory przekształcić w kod. Nie ukrywam, że liczy się dla mnie cena, ale też skuteczność więc liczę na korzystny kompromis dla obu stron :)
50 Good Deeds During Ramadan Short PDF Report
Poszukuję programisty do zbudowania raportów i kilku skryptów uzupełniających funkcjonalność programu WHOKNA znajomość MSSQL, VBS, C#, Active Report, znajomość programu WHOKNA i branży stolarki otworowej
Szukamy osoby lub firmy, która wykona dla nas aplikacje deskotopową- crawlera, która: - pobiera dane on line ze specjalnego pliku wymiany ( do uzgodnienia) razem z konfiguracją - odwiedza adresy z pliku, pobiera o nich dane (size, status, whois, ip, treśc tagu title, description, keywords) - przesyła pobrane dane na serwer - odpowiednio skonfigurowany potrafi podążać dodatkowo za linkami wewnętrznymi ( w danej domenie ) - zdalnie konfigurowany potrafi sprawdzać dodatkowe parametry (wyrażenia regularne) np treść pierwszego tagu h1, - słucha poleceń , przedstawia się poprawnie - konfiguracja po stronie użytkownika: liczba jednoczesnych połączeń, limit transferu, autouruchamianie po starcie - współdziała uruchomiony na raz na wielu maszynach Technologia po stronie se...
Zlecę napisanie programu typu Web Crawler, który będzie mógł ściągać wiadomości oraz artykuły z jak największej ilości podstron z portali , , interia.pl. Dane powinny być podzielone na pliki tekstowe, których rozmiar nie będzie przekraczał 10MB. Idealnie jedno zdanie - jedna linia. Program powinien działać pod Ubuntu i nie powielać ściągniętych już danych, jak również powinien je ściągać co jakiś czas, tak aby nie zablokowano adresu IP.
...operation of the program: The application will be automatically rejected calls to your telephone if the number you called will be located at the base of the numbers programmed into the application. The program should be able to efficiently use about 150 numbers. Conditions: -An application running smoothly at 150/200 numbers -The "Report". If you notice that the number that is calling to him, he will be able to undesirable report it by clicking on the option "Report" which will result in sending an email to a specific email address the next time you connect your phone to the Internet. -The application must be as intuitive. Person after installation you will need to do nothing to make the application work efficiently -I would like the pers...
I'm looking for someone that can write simple UserScript (u...alliance or base (depends on object type) and itemID is current object ID. Links should appear: 1. After selecting base in map view. 2. After selecting player username (on the end of line with "message" and "friend request"). 3. After selecting player bases list (second tab visible after selecting player username) in additional table column. 4. After selecting alliance name (in line with "report alliance"). 5. After selecting alliance members list (second tab visible after selecting alliance name) in additional table column. GUI is using qooxdoo so adding new elements shouldn't be a problem. Main problem is lack of game API documentation so getting IDs of players, allianc...
...base a za itemID podajemy ID kolejnego gracza, sojuszu czy bazy. Kolejne przyciski (wszystkie po zalogowaniu do świata gry): 1. Po znaznaczeniu bazy na mapie 2. Po kliknięciu na nick gracza (w linii z "message" i "friend request") na końcu 3. Po wybraniu listy baz gracza (druga zakładka z pkt. 2) dodatkowa kolumna z linkiem 4. Po kliknięciu na nazwę sojuszu (w linii z "report alliance") na końcu 5. Po wybraniu listy członków sojuszu (druga zakładka z pkt. 4) dodatkowa kolumna z linkiem Całe GUI zbudowane jest na qooxdoo, do aukcji dołączam dwa przykładowe skrypty, które powinny mniej więcej naprowadzić na ogólną ideę. Dużym problemem będzie brak dokumentacji dla API gry, natomiast dokumentacja dla samego qooxdoo jest ogó...
Potrzebuje biblioteki DLL napisanej w c#, która będzie drukowała dokumenty z programu Subiekt GT po podaniu identyfikatora dokumentu. Zlecenie mogą podjąć się osoby które mają licencję na Crystal Report w wersji bodajże 8.5, ewentualnie potrafią tworzyć .pdf z plików .xlsx. Format wejściowy identyfikator dokumentu z Subiekt GT, formaty wyjściowy plik .pdf w jakiejkolwiek postaci : link do pliku tymczasowego, ewentualnie postać binarna.
...keyboard) to the new version of our website - (Joomla) - E-shop in two optional languages (Polish, English) - Electronic payment processing (selection of the service provider - for discussion) - Integration with and Ebay - Functional testing e-shop, including: action, edit content, collaboration with payment sites, auction sites, etc. - Provide a comprehensive report on the commissioning and testing We expect: - Complex organization of the work and activities - To carry out all the necessary arrangements =================================================================== Zlecimy konfigurację e-sklep ClickShop (platforma od ) i wypełnienie kontentem. Opis platformy i możliwości jest tutaj: towe#profesjonalny
...SVN umiejętność posługiwania się w systemie Redmine znajomość zagadnień związanych z bezpieczeństwem, wydajnością aplikacji internetowych umiejętność dokumentowania kodu (wymagana dokumentacja kodu + dokumentacja online) umiejętność testowania kodu (wymagane testy jednostkowe) znajomość biblioteki cURL lub pochodnych Mile widziane: znajomość środowiska Linux budowanie systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest automatyczna publikacja ofert na wcześniej wyszczególnionych serwisach (około 5) typu oferty pracy/zleceń. Aplikacja przesyła przygotowane dane poprzez zalogowanie się (bez captchy) na danym serwisie (konta wcześniej już są utworzone) i publikację zlecenia/oferty. Przesyłane dane w formie ustalonego wcześniej szablonu będą dobie...
...SVN umiejętność posługiwania się w systemie Redmine znajomość zagadnień związanych z bezpieczeństwem, wydajnością aplikacji internetowych umiejętność dokumentowania kodu (wymagana dokumentacja kodu + dokumentacja online) umiejętność testowania kodu (wymagane testy jednostkowe) znajomość biblioteki cURL bądź pochodnych Mile widziane: znajomość środowiska Linux budowanie systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest indeksacja ofert pracy/zleceń z wyszczególnionej listy serwisów (około 5). Zdobyte wyniki powinny być składowane w odpowiednio zaprojektowanej bazie danych. Aplikacja będzie uruchamiana w tle na serwerze w równych odstępach czasu. Aplikacja powinna zawierać limity czasu odpowiedzi na zapytania oraz umożliwić logow...
Witam, Poszukuję na okres 6 miesięcy (z możliwością przedłużenia) programisty do pisania raportów w systemie Smart E-Vision. Praca jest przez 3 dni w miesiącu. Idealny kandydat powinien znać system Smart E-vision Business Objects, Crystal Reports lub inny system do pisania raportów. Wspomniany system...pisania raportów. Wspomniany system nie jest szczególnie popularny ale znajomość SQL pozwoli na jego szybkie opanowanie. Raporty które mają zostać wykonane są dosyć proste. Znajomość angielskiego będzie dodatkowym plusem Przygotowaliśmy bardzo prosty test dla potencjalnych kandydatów co pozwoli zapoznać się z systemem oraz sprawdzić wiedze z zakresu SQL. Podsumowując: jeżeli ktoś używał np. Crystal Report to na nie powinno być problemu...
Poszukuję bardzo dobrego programisty php, wdrożenia oparte na silniku sphinx, crawler
Witam, Zlece pozyskanie klientow na aplikacje Crawler, sluzaca do tworzenia baz teleadresowych. Strona aplikacji Wynagrodzenie: 30% od wartosci sprzedanej licencji. Cena aplikacji moze byc rozna w zaleznosci ile modulow aplikacji zakupi klient.
...advisory for business solutions. 2. It must have any easy to use CMS system for multiple administrators with different levels of access. 3. Integrated payment system (i.e. pay pal) + an option in CMS to set up the prices for products available on the web site. 4. Front end must have a minimalistic design, 6 pages (news, companies list, map, etc.), logging option for companies, call to action (i.e. buy report) + typical pages: about us, terms and conditions, contact. 5. Banner configuration in CMS: configurable banners, time, prices. 6. CMS: users (setting up the level of access), articles, pages, email responder (after each action), newsletter, banner manager, SEO options (meta words, settings), dashboard (Google analytics, etc.), photo and video, LinkedIn. We are looking for a...
Witam, Potrzebuje jakby to nazwać: skrypt/bot/crawler, który będzie imitował wejście na konkretną witrynę i jej podstrony. Skrypt ma działać na takiej zasadzie, że uruchamiam go ręcznie lub automatycznie np co dwa dni i odwiedza strony które sa dopisane (w zależności od potrzebny linki do podstron, mogę wprowadzić ręcznie, jednak lepszą opcją jest dodanie tylko domeny głównej, a niech sam szuka wszystkich podstron - np jak generatory map stron w necie). Działanie skryptu ma imitować naturalne wejście na strone przez użytkownika, czyli ma to byc widoczne np na liczniku odwiedzin + plus ma uruchomić skrypt php, który jest wrzucony na stronę. W skrócie uruchomienie skryptu na konkretnej witrynie/podstronie ma być równoważne temu jakby człowiek ...
Crawler odwiedzjacy strony przez rozne IP z Polski, mala czestotliwosc do kilkuset na dzien. Mozliwosc sterowania czasem i intensywnoscia wejsc , oraz wybor podstron do odwiedzin. Brak zbierania danych oprocz pomiaru raz na jakis czas czasu otwierania witryny.