Downgrade sterowników Broadcom HP NC382i DP Multifuctional Gigabit Server Adapter on HP PROLIANT DL380 G6 z powodu niedziałającego PXE

By Sebastian Grugel on Grudzień 31st, 2013

Obniżanie wersji sterowników w kartach sieciowych na serwerze HP.

 

Błędy raportowane po stronie serwera SCCM w dzienniku zdarzeń.

 

 

Wersja sterownikow z problemem obniżonego MTU: 7.8.21.0

MTU po aktualizacji sterowników do 7.8.21.0 zmienił sie z 1500 na 1486 powodując problemy z PXE na serwerze SCCMowym.
Poprzez to maszyny nie mogły być wdrażane do produkcji poprzez PXE.

 

  • Proces obniżenia wersji sterowników:

 

  • Parametr MTU po aktualizacji natychmiast został zmieniony ( bez restartu ).

Po obniżeniu wersji sterowników proces instalacji systemów poprzez PXE powrócił do normy.

Można to zaobserwować w dzienniku zdarzeń ( event logu ).

 

Więcej logów na SCCMie mozna znależc w lokalizacji:

C:\Windows\SysWOW64\CCM\Logs

Big Data – HADOOP i inne diabły – Part II

By Maciej Lelusz on Grudzień 31st, 2013

Popatrz w prawo, w lewo. Widziałeś? Nie? Najwidoczniej nie byłeś targetem – to nie było kierowane do Ciebie. Widzisz to, co chcesz, a to, co niezauważone zaszyte w mózgu czeka na impuls. Ty nie wiesz, że patrzysz, a tymczasem dostajesz to, co masz otrzymać. Reklama dźwignią handlu, a może, tak naprawdę handel to już tylko reklama. Biznes potrzebuje narzędzi do analizy naszych zachowań, naszych zainteresowań, ruchów, spojrzeń – każda informacja jest cenna jak jest sprofilowana… Spójrzcie na film poniżej – to jest BIG DATA, coś, co wcześniej niezmiernie trudno było osiągnąć, teraz może zrobić to mała firma założona 2009 roku kapitałem 3 milionów dolarów:

Przypominają się wszystkie filmy szpiegowskie? Widzisz już jak łatwo będzie zrobić ADword’s na bilbordach, gotowych by pokazać w odpowiednim czasie reklamę właśnie dla Ciebie, gdyż system wie, że zaraz tamtędy przejedziesz. To jest BIG DATA – to, co kiedyś było zarezerwowane dla gigantów, rządów i na pewno nie dla Ciebie. Zastosowań jest dużo, limit to software i pomysł… ale czy to tak naprawdę jest limit?

Nasza eskapada z HADOOP’em trwa nadal. Mamy już działający klaster, tak, wiec wypadałoby się do niego podłączyć… Potrzebujemy więc FUSE-HDFS które pozwoli nam zamontować HDFS jako zwykły filesystem w Linuksie.

Chciałbym Was jednak przestrzec, że nie wszyscy wrócą z tej wyprawy żywi, a już na pewno nie tacy sami. Niektórzy utoną w odmętach mroków konsoli, polegną w walce z bibliotekami, nadziani na piki symlinków i rozszarpani zębami automake i libtool’a. To powrót do przeszłości, podczas którego poczujecie się jak dwadzieścia lat temu w czasach slacka, wszechobecnego gcc i nigdy nieudających się za pierwszy razem kompilacji. Wszystkie demony powrócą.

„Chociażbym chodził ciemną doliną, zła się nie ulęknę, bo Ty jesteś ze mną. Twój kij i Twoja łaska są tym, co mnie pociesza.” Ps. 23, 4.

Tak wiec wkroczmy z podniesioną głową w te ostępy surowe, w jary pełne zarazy i gaje pogrążone w ciemności. Zaczynamy edytując plik:

nano /root/.bashrc

Dodając zmienne:

export HADOOP_PREFIX=/usr/local/hadoop
export HADOOP_HOME=/usr/local/Hadoop
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0/

Następnie zaciągamy pakiety niezbędne do kompilacji:

apt-get -y ant install maven build-essential protobuf-compiler autoconf automake libtool cmake zlib1g-dev pkg-config libssl-dev zlibc subversion libfuse-dev

Ponownie konfigurujrmy Javę:

root@u-hadoop-01:~# update-alternatives –config java

There are 2 choices for the alternative java (providing /usr/bin/java).

Selection    Path                                            Priority   Status
————————————————————
* 0            /usr/lib/jvm/java-6-openjdk-amd64/jre/bin/java   1061      auto mode
1            /usr/lib/jvm/java-6-openjdk-amd64/jre/bin/java   1061      manual mode
2            /usr/lib/jvm/jdk1.7.0/bin/java                   1         manual mode

Press enter to keep the current choice[*], or type selection number: 2

update-alternatives: using /usr/lib/jvm/jdk1.7.0/bin/java to provide /usr/bin/java (java) in manual mode.

Przechodzimy do katalogu /usr/local gdzie ściągamy Apache Forest, oraz go rozpakowujemy i nadajemy mało finezyjne uprawnienia:

wget http://archive.apache.org/dist/forrest/0.8/apache-forrest-0.8.zip
unzip apache-forrest-0.8.zip
chmod 777 /usr/local/hadoop-1.1.2/src/docs
chmod 777 /usr/local/apache-forrest-0.8/bin/forrest
chmod 777 /usr/local/apache-forrest-0.8/tools/ant/bin/ant
cd hadoop

Kompilacja:

ant clean package -Dforrest.home=/usr/local/apache-forrest-0.8

Dzięki temu mamy gotowe środowisko pod kompilację. Teraz uwaga, nie wywołujemy make, ani nic podobnego, wystarczy wejść do katalogu z binarkami fuse-hdfs i uruchamiamy ten jakże intuicyjny one-liner

gcc -Wall -g -Wall -O3  -o fuse_dfs fuse_dfs.o fuse_options.o \
fuse_trash.o fuse_stat_struct.o fuse_users.o fuse_init.o fuse_connect.o \
fuse_impls_access.o fuse_impls_chmod.o fuse_impls_chown.o \
fuse_impls_create.o fuse_impls_flush.o fuse_impls_getattr.o \
fuse_impls_mkdir.o fuse_impls_mknod.o fuse_impls_open.o \
fuse_impls_read.o fuse_impls_release.o fuse_impls_readdir.o \
fuse_impls_rename.o fuse_impls_rmdir.o fuse_impls_statfs.o \
fuse_impls_symlink.o fuse_impls_truncate.o fuse_impls_utimens.o \
fuse_impls_unlink.o fuse_impls_write.o \
-L/usr/local/hadoop/build/c++/Linux-amd64-64/lib -lhdfs -L/lib -lfuse -L/usr/lib/jvm/jdk1.7.0/jre/lib/amd64/server –ljvm

Przechodzimy do katalogu /usr/local/hadoop/ i wykonujemy kompilację

ant compile-c++-libhdfs -Dcompile.c++=true -Dlibhdfs=true

Teoretycznie, jak wszytko pójdzie dobrze i nic nie przeoczyłem, a Wy nie zostaniecie zasypani tysiącami najbardziej nieprawdopodobnych błędów to możecie wywołać komendę:

mkdir -p /mnt/hdfs
/usr/local/hadoop/build/contrib/fuse-dfs/fuse_dfs_wrapper.sh dfs://localhost:54310 /mnt/hdfs

Lub jak biały człowiek skopiować do /bin/ (ewentualnie wykonać symlink).

Jeżeli wcześniej (w poprzednim artykule) jeszcze tego nie zrobiliście, to możecie wrzucić coś na klaster:

su hduser
cd /home/hduser/
wget http://upload.wikimedia.org/wikipedia/en/d/d6/Doop.png
/usr/local/hadoop/bin/hadoop dfs -copyFromLocal /home/hduser/Doop.png /user/hduser/Doop.png

I sprawdzić czy tam jest:

hduser@u-hadoop-01:~$ ls -alh /mnt/hdfs/user/hduser
total 201K
drwxr-xr-x 3 hduser 99 4.0K Jul  1 03:48 .
drwxr-xr-x 3 hduser 99 4.0K Jul  1 03:48 ..
-rw-r–r– 1 hduser 99 193K Jul  1 03:48 Doop.png
hduser@u-hadoop-01:~$

Tak, więc nasz FUSE działa – najgorsza część za nami. Jeżeli jeszcze jesteście przy zdrowych zmysłach i przeżyliście paranoje powyższej kompilacji, to teraz czas na podanie HDFS do ESX poprzez NFS. Pobieramy i instalujemy demona NFS:

apt-get install nfs-kernel-server portmap

Edytujemy plik /etc/exports, wstawiając tam dane niezbędne do tego by NFS server wiedział co i komu wystawić:

/mnt/hdfs       TU.WPISZ.SWOJĄ.PODSIEĆ/24(rw,sync,no_root_squash,no_subtree_check,fsid=0)

Przeładowujemy exports poleceniem:

exportfs –a

Na końcu restartujemy demona NFS:

/etc/init.d/nfs-kernel-server restart

Kolejnym etapem naszego przedsięwzięcia jest rekonfiguracja HADOOP’a w celu podłączenia do ESX. Demon NFS działa domyślnie na uprawnieniach root’a, jakoś nie udało mi się tego zmienić, aby uruchamiał się na użytkowniku hduser. Było by to przydatne, gdyż ten użytkownik ma uprawnienia do hadoop’a. Jednak nic straconego, można, jako, że mamy do czynienia z środowiskiem laboratoryjnym ominąć te zabezpieczenia, poprzez wyłącznie uprawnień na warstwie HDFS. Robi się to poprzez dodanie do pliku hdfs-sites.xml następującej instrukcji:

<property>
<name>dfs.permissions</name>
<value>false</value>
</property>

Po zmianie należy zrestartować klaster i założyć folder VM, gdzie będziemy składować VM:

sudo -u hduser /usr/local/hadoop/bin/hadoop dfs -mkdir /vm

Już prawie gotowe. Teraz tylko należy podłączyć nasz udział NFS do ESX. Robimy to poprzez klienta wchodząc w właściwości hosta w zakładkę Configuration. Tam wybieramy Storage, Add Storage, Network File System i konfigurujemy podobnie jak na obrazku poniżej.

Wrzucamy maszynę wirtualną. Ja wybrałem DSL – Damn Small Linux. Przede wszystkim wybrałem go, gdyż urzekła mnie jego niemetaforyczna nazwa – faktycznie jest cholernie mały, poza tym strona internetowa projektu DSL, przypomina mi lata, gdy brody uber-unixowsów były długie i siwe, a ja byłem młody i pryszczaty… Komponował się również rewelacyjnie z epopeją kompilowania – coś w sobie mają te produkty z przeszłości Tym niemniej jednego nie można mu odmówić – jest niewielki, a to duży atut w wirtualnym labie. Tak wiec wrzucamy go na Datastore dumnie nazwany HADOOP:

Podłączamy maszynę wirtualną do Inventory i… PLAY!

Jak widać działa! Czym jednak było by życie bez, wszędobylskiego, „ALE”. Otóż i tu mamy te diabelne trzyliterowe przekleństwo. Działa, to prawda, lecz niestety upiornie wolno. Nie! Źle to sobie wyobrażasz. To działa naprawdę wooooolno… To przypomną tępo, w jakim urząd oddaje ci pieniądze, to działa jak kuchnia przygotująca pizzę, na którą czekasz wygłodniały, to w końcu działa tak wolno jak pęcherz tego, co zajmuje toaletę, gdy ty czekasz po czterech piwach… wyobraź sobie „naprawdę wolno” a potem pomnóż to przez czas defragmentacji dysku w Windows 95.

Dlaczego? Odpowiedz jest w sumie prosta, generalnie można to wytłumaczyć tym, że FUSE musi tłumaczyć wszystko na język HDFS. Robi to po pierwsze powoli, po drugie przypomina to nieco Google Translator, tzn. niby wszystko jest dobrze, ale, po drodze występuje dużo błędów, które wymagają ponownego przetłumaczenia, przesłania itp. itd. W związku, z czym cała struktura działa niezmiernie powoli.

Wniosek jest jeden – na produkcje się to nie nadaje, do zabawy na razie też nie, gdyż FUSE jest w zbyt eksperymentalnym stadium. Warto było jednak spróbować i udowodnić światu, że wirtualne maszyny można nawet postawić na bazie danych

Tymczasem szczęśliwego Nowego Roku!!!

Źródła:

Artykuły powiązane:

2013 in review

By voytas on Grudzień 31st, 2013

The WordPress.com stats helper monkeys prepared a 2013 annual report for this blog.

Continue Reading

[EN]/[ES] Posterpedia–better than Playmate of the Month

By koprowskit on Grudzień 31st, 2013

YAY! I forgot about this fantastic app for Windows 8 Desktop. This app probably work better with ‘sliding’ version of Windows 8 hardware – such Surface of any touch-screen machine (and I have no one of them) but it’s enough for me. What is it? Server Posterpedia is a new Windows Store app for Microsoft […]

Rok 2013: Blogowe podsumowanie

By Mariusz Kędziora (MSFT) on Grudzień 30th, 2013

To już prawie koniec 2013 roku postanowiłem więc zrobić małe podsumowanie tego, co na blogu się działo w ostatnich 12 miesiącach. Pokażę Wam kilka ciekawych liczb, to co czytaliście najchętniej oraz kim byliście w AD 2013 :) Będzie też kilka ciekawostek o Facebooku.

Continue Reading

Hyper-V Replikacja pomiędzy różnymi domenami

By Krzysztof Polewiak on Grudzień 30th, 2013

Replikacja maszyn Hyper-V w Windows 2012/2012R2 to jeden z tych “killing features”, który może wiele osób przekonać co wirtualizacji Microsoftu. Zapewnia nam niemal te same możliwości co sprzętowa asynchroniczna replikacja macierzy bez potrzeby ponoszenia dodatkowych kosztów. Jest dostępna również w darmowej wersji Hyper-V Server. Zasada działania Działanie replikacji jest dość proste. Replikacja to rozwinięcie innych […]

[EN] SQL Server 2012 Cumulative Update 11 is available

By koprowskit on Grudzień 30th, 2013

Second part of December’s updates is the last pack for SQL Server 2012 RTM. Why the last? All database administrators should remember about Microsoft Support Lifecycle (site here). For this product, lifecycle going to end: In this Cumulative Update 11 (Build number: 11.0.2424.0) Microsoft fixed fixteen bugs for SQL Server Engine, Analysis Services and Reporting […]

[EN] SQL Server 2008 R2 SP2 Cumulative Update 10 is available

By koprowskit on Grudzień 30th, 2013

Two updates pack from December 2013. After two weeks some part of my environment are ready for it. First pack for SQL Server 2008 R2 with SP2. In this Cumulative Update (build 10.50.4297.0) Microsoft fixed about fifteen bugs for many parts of SQL Server environment for SQL Engine, Analysis Services, Reporting Services ans Integration Services. […]

Podsumowanie roku 2013

By Pawel Potasinski on Grudzień 30th, 2013

Jak co roku przyszedł czas na podsumowanie ostatnich 12 miesięcy życia mojego i bloga SQLGeek.pl. O ile w moim życiu działo się sporo, o tyle zdaję sobie sprawę, że blog doznał swego rodzaju stagnacji. W tym miejscu kładę uszy po sobie, bo to oczywiście moja zasługa/wina :-)

2013 u mnie

Na początek, co się działo u mnie. Przede wszystkim znalazłem sobie nową pasję – bieganie. Bieganie głównie dla zdrowia i kondycji fizycznej (i psychicznej). Ale oczywiście przy okazji ma miejsce swoista wewnętrzna rywalizacja z samym sobą, łamanie kolejnych barier (głównie w mojej głowie). Zacząłem biegać jeszcze w zeszłym roku (po wakacjach). Ale było to raczej dreptanie – na początek po 4-5 km w tempie ok. 7 min/km. Nie próbowałem od razu biegać długo i codziennie, raczej co drugi dzień i bez szaleństw. Dzisiaj mogę napisać, że to był dobry pomysł. Stopniowo wydłużałem biegi i zwiększałem tempo. Pierwszym istotnym celem było przebiegnięcie Półmaratonu Warszawskiego (marzec 2013). Udało się – zszedłem poniżej 2h (1:58:35). Rozpierała mnie duma i kontynuowałem bieganie, które dawało mi coraz większą radość. Zacząłem eksperymentować z planami treningowymi i różnymi długościami wybiegań. Szybko okazało się, że bieganie ma dobry wpływ na moje życie…

Przez nieco ponad rok z wagi wyjściowej 110 kg zszedłem poniżej 90 kg. Bez żadnej diety, wyłącznie dzięki bieganiu. Nie muszę nikogo przekonywać, że taka zmiana wpłynęła pozytywnie na wiele aspektów mojego życia (przede wszystkim lepiej się czuję i łatwiej mi się biega). Oczywiście, zaszły też znaczne zmiany w garderobie ;-)

Aktualnie biegam po 50-60 km tygodniowo (cały 2013 rok to ponad 2500 km), a tempo podróżne to 5:20-5:30 min/km. W takim tempie jestem w stanie przebiec pewnie i maraton :-) Kilka miesięcy temu zacząłem intensywnie pracować nad techniką biegu. Obecnie ląduję na śródstopiu, robię mniejsze kroki (za to zwiększyłem kadencję) i dbam o sylwetkę w czasie nawet najintensywniejszych treningów :-) Udało mi się też wyśrubować kilka prywatnych rekordów (wszystkie nieoficjalne i osiągnięte w czasie treningów):

5 km – 22:13
10 km – 45:02
Półmaraton – 1:42:34
Maraton – 3:55:26

Dodatkową motywację, oprócz stałego progresu wyników, dawały mi gadżety ;-) Nie ma to jak nowa para butów do biegania czy nowy element stroju w nagrodę z ciężki wysiłek na treningach. W porównaniu do początków mojego biegania, dzisiaj moja aktywność fizyczna jest w pełni monitorowana. Wiele osób pytało mnie o to, z jakim sprzętem biegam, więc “here you go”: biegam z zegarkiem Garmin FR310xt, z czujnikiem rytmu serca (na zmianę – raz HR z zestawu Garmina, raz z zestawu adidas miCoach), czujnikiem tempa i kadencji z zestawu adidas miCoach. Nieodłącznym towarzyszem mojego biegania jest też muzyka :-)

Ale mój rok 2013 to nie tylko bieganie. To także całkiem sporo SQL-a ;-) To trzy wystąpienia na spotkaniach warszawskiego oddziału PLSSUG (sesje o funkcjach okienkowych, o audytach i o DBCC CHECKDB), dwie sesje na SQLDay 2013 (o danych geograficznych i o PDW), kilkuminutowy epizod (Power BI) na sesji generalnej MTS 2013 i wspólna prezentacja z Markiem Adamczukiem również na MTS 2013. A więc nadal trzymam się blisko społeczności SQL Server i tak pozostanie (już 8 stycznia poprowadzę prezentację “Hekaton Unleashed” w ramach spotkania PLSSUG w Warszawie).

Pewnie byłoby więcej mojej aktywności na polu społeczności, gdyby nie intensywność mojej pracy zawodowej. Jako doradca technologiczny mam okazję spotykać się z klientami firmy Microsoft z praktycznie wszystkich branż. To daje mi możliwość dowiedzenia się, w jaki sposób SQL Server jest wykorzystywany w produkcyjnych systemach w całym kraju. Do tego dochodzą liczne prezentacje dla partnerów Microsoft oraz wystąpienia na konferencjach i warsztatach. A więc, cały czas uczę się biznesu i technologii, nie stoję w miejscu. I chyba o to chodzi :-)

2014 na blogu

O kończącym się roku 2013 w kontekście bloga SQLGeek.pl nie ma co pisać. Za to sądzę, że należy się słowo na temat moich planów na rok 2014. Skoro już przedłużyłem żywot bloga, pomyślałem, że dobrze byłoby jednak tchnąć weń trochę życia. I to jest moje noworoczne postanowienie – w miarę możliwości pisać więcej na blogu. Okazji będzie pewnie niemało – nieuchronnie zbliża się premiera SQL Server 2014 (z pewnością będę brał udział w organizacji polskiej premiery produktu). Pojawiają się ciekawe funkcjonalności z rodziny Power BI. Ewolucję przechodzi usługa HDInsight. To są aktualnie trzy obszary, które – jeśli chodzi o pracę z danymi – interesują mnie najbardziej. I o nich będę się starał pisać, być może umieszczać na blogu własne demonstracje tych technologii. Kto wie, może i o bieganiu zdarzy mi się napisać ;-)

A zatem – stay tuned. SQLGeek.pl is still alive :-)

[EN]/[ES] Windows Azure SDK v.2.2 is available

By koprowskit on Grudzień 29th, 2013

On 17th October Microsoft released new version of Windows Azure SDK for .NET (both for Visual Studio 2012 and 2013). What is WASDK?  It’a spesial package which can help developers for using Windows Azure Services, such as Windows Azure Storage, Service Bus, Caching, Web Sites, Cloud Services and more. What’s new with this version? Full […]

Dlaczego szyfrowanie jest (czasem) lepsze

By Paweł Goleń on Grudzień 29th, 2013

Załóżmy, że mamy przechować jakiś sekret. Nie do końca chodzi nam o to, by był on przechowywany w sposób nieodwracalny, natomiast zdecydowanie chcemy mieć możliwość sprawdzenia, czy określona osoba ten sekret zna.

Tak, dokładnie o to chodzi również przy przechowywaniu haseł. Tu absolutnym standardem jest przechowywanie sekretów (haseł) w formie skrótu (hasha), który powinien być nie tylko nieodwracalny, ale również kosztowny do wyliczenia. Wszystko po to, by atak brute force był jak najbardziej kosztowny (obliczeniowo). Są jednak takie przypadki, w których przestrzeń możliwych wartości sekretu jest na tyle niewielka, że podejście oparte na wykorzystaniu hasha po prostu się nie sprawdza.

W takich przypadkach lepszym podejściem jest zaszyfrowanie sekretu i przechowywanie go w takiej postaci. Oczywiście szyfrowanie musi być wykonane z głową, bo inaczej skutki są takie: Anatomy of a password disaster – Adobe’s giant-sized cryptographic blunder.

Jeśli szyfrowanie zostanie zrealizowane poprawnie, to atak na hasła sprowadzi się do ataku na wykorzystany szyfr. W praktyce oznacza to konieczność odgadnięcia klucza, który ma co najmniej 128 bitów. Powodzenia.

Ale jednocześnie właśnie tu jest problem – system by działać, musi mieć dostęp do tego klucza. Z pewnym prawdopodobieństwem należy więc założyć, że również atakujący będzie miał do niego dostęp (choć w przypadku wspomnianej już wpadki Adobe – klucza najwyraźniej nie udało się zdobyć).

Jaki stąd morał? Warto zastanowić się co chcemy chronić i jaka jest możliwa przestrzeń wartości tego sekretu. W pewnych sytuacjach bardziej bezpiecznym rozwiązaniem będzie wybranie szyfrowania i próba utrudnienia dostępu do klucza.

P.S. W zasadzie dokładnie to samo można osiągnąć przy pomocy tajnego pepper (uzupełniając jawny salt). Oczywiście tutaj należy z kolei zadbać o to, by pepper nie był łatwo dostępny dla atakującego.

P.S2. A przypomniało mi się to w związku z tym: Can hackers decrypt Target’s PIN data? Przy okazji – warto zwrócić uwagę na sztuczki zastosowane po to, by uniknąć sytuacji, w której dwa różne PIN szyfrują się do tej samej wartości (wykorzystany jest 3DES w trybie ECB).

Przeładowany

By Tomek Onyszko on Grudzień 28th, 2013

Blog, blogować, blogował … będzie blogował.

Blog jako taki wydawać się może być formą zanikającą, albo inaczej – takie wnioski można wyciągać na przykład z decyzji Google dotyczącej Google Reader. Z drugiej strony jendak stare nie zniakają, nowych przybywa a zapotrzebowanie na alternatywę dla Google Reader zaskoczyło zapewne kilka osób tego typu rozwiązania tworzące (ja skończyłem na Feedly). Słowo blog jest obecnie już mocno wyeksploatowane, ale też chyba nie mamy lepszego więc się go trzymajmy. O blogach więc będzie.

Blogować … każdy może, trochę lepiej lub trochę gorzej. Blogować nie oznacza od razu aspiracji do tego aby zostać blogerem (w komercyjnym tego słowa znaczeniu). Blogować w moim przypadku to posiadać miejsce do przedstawienia własnego punktu widzenia, omówienia kilku rzeczy a czasem ich usystematyzowania dla samego siebie. Continue Reading

Jak usunąć maszynę bez usuwania plików konfiguracji

By Krzysztof Polewiak on Grudzień 28th, 2013

Czasami zdarza się sytuacja, w której chcemy usunąć maszynę z Hyper-V, ale chcemy zachować plik XML z konfiguracją by móc ją później zaimportować. Dopóki nie usuniemy maszyny z Hyper-V plik XML jest tylko dostępny jako Read-Only. Więc nie da się go nawet przenieść w inne miejsce czy też np. zmienić nazwę katalogu z maszyną wirtualną. […]

Puchnące bazy z logami ULS dla SharePoint. Jak nimi zarządzać

By Sebastian Wilczewski on Grudzień 28th, 2013

Jakiś czas temu dotknął mnie problem puchnących baz SharePoint. Przyczyną były namiary wzrost logów ULS. Podczas analizy problemu zetknąłem się z ciekawym artykułem dotyczącym tego, w jaki sposób logi ULS przechowywane są w bazach SharePoint i jak są zorganizowane.

Continue Reading

Puchnące bazy z logami ULS dla SharePoint. Jak nimi zarządzać

By Sebastian Wilczewski on Grudzień 28th, 2013

Jakiś czas temu dotknął mnie problem puchnących baz SharePoint. Przyczyną były namiary wzrost logów ULS. Podczas analizy problemu zetknąłem się z ciekawym artykułem dotyczącym tego, w jaki sposób logi ULS przechowywane są w bazach SharePoint i jak są zorganizowane.

Continue Reading