Jak uzyskać dostęp do internetowego interfejsu użytkownika Hadoop w systemie Linux?


Zainstalowałem Hadoop 2.7.3 zgodnie z poniższym samouczkiem

Cyfrowy samouczek oceanu, aby zainstalować hadoop w trybie offline
https://www.digitalocean.com/c ... 04... Po instalacji pobiegłem

start-dfs.sh

ale kiedy zacząłem, otrzymałem następujące dane wyjściowe.
Starting namenodes on [localhost]
jtech@localhost's password:
localhost: starting namenode, logging to/usr/local/hadoop/logs/hadoop-jtech-namenode-jtech.out
jtech@localhost's password:
localhost: starting datanode, logging to/usr/local/hadoop/logs/hadoop-jtech-datanode-jtech.out
Starting secondary namenodes [0.0.0.0]
jtech@0.0.0.0's password:
0.0.0.0: starting secondarynamenode, logging to/usr/local/hadoop/logs/hadoop-jtech-secondarynamenode-jtech.out

Ale kiedy próbuję uzyskać dostęp do adresów URL z mojej przeglądarki internetowej, takich jak
localhost: 50030
lub
0.0.0.0:50030
, nie udaje mi się

Mogę się połączyć

do błędu przeglądarki Firefox.
Aktualizacja: żaden localhost: 8088 nie działał jak od odpowiedzi na pytanie zadane w komentarzu.
Zaproszony:
Anonimowy użytkownik

Anonimowy użytkownik

Potwierdzenie od:

Następujący

oficjalna dokumentacja dotycząca konfigurowania jednego węzła
https://hadoop.apache.org/docs ... .html
  • Formatowanie systemu plików:
    $ bin/hdfs namenode -format
  • Uruchom demona NameNode i demona DataNode:
    $ sbin/start-dfs.sh
  • Wyświetl interfejs sieciowy dla NameNode; domyślnie jest dostępny pod adresem: NameNode - http://localhost:50070/
Jeśli nie sformatujesz namenode, nie rozpocznie się
Anonimowy użytkownik

Anonimowy użytkownik

Potwierdzenie od:

Spróbuj przejść do portu 50070,

http://localhost:50070
http://localhost:50070... Jeśli to zadziała, to HDFS już działa. Ponieważ używasz & > 0, nie ma JobTrackera. Zobacz
jps
i powinieneś zobaczyć
$jps
Jps
NameNode
DataNode
ResourceManager
NodeManager
JobHistoryServer

Sprawdź, czy możesz dostać się do portu http menedżera zasobów

http://localhost:8088
http://localhost:8088
.
Anonimowy użytkownik

Anonimowy użytkownik

Potwierdzenie od:

Problem w tym, że HDFS musi być sformatowany. Wcześniej muszę uruchomić
/usr/local/hadoop/sbin/stop-all.sh
bin/hdfs namenode -format
bin/hdfs secondarynamenode -format -checkpoint force
bin/hdfs datanode -format

a potem zacznij wszystko od nowa.
/usr/local/hadoop/sbin/start-all.sh

Wtedy to działa.
Uwaga: aby jps działał, musisz zainstalować
openjdk-8-jdk-headless
lub cokolwiek, co jest odpowiednie dla twojej wersji Javy.
Twoja wersja Java może być znana.
readlink -f/usr/bin/java | sed "s:bin/java::"

Jeśli jest 8, zainstaluj
openjdk-8-jdk-headless
.
Będziesz także potrzebował
ssh
. Chociaż otrzymujesz polecenia
ssh
po wpisaniu terminalu, nadal musisz
sudo apt-get install ssh
Aby uzyskać szczegółowe informacje, patrz:

konfigurowanie Hadoop w Ubuntu w trybie offline (zwykle dla studentów)
https://hadoop.apache.org/docs ... ml... Wykonaj wszystkie kroki, nawet jeśli uważasz, że masz całe oprogramowanie. Oprogramowanie może wymagać aktualizacji swoich alternatyw.
W powyższym adresie URL nie zapomnij również zmienić plików konfiguracyjnych podanych w

operacja pseudo-rozproszona

.
Najpierw być może będziesz musiał się przyjrzeć

instalowanie Hadoop na Ubuntu
https://www.digitalocean.com/c ... 16-04

Aby odpowiedzieć na pytania, Zaloguj się lub Zarejestruj się