Multimedia

Prelegent:
Andrzej Marosek

[#607] LLM-as-a-Service na AWS: Jak zbudować własny ChatGPT bez trenowania modelu

Podczas prezentacji zobaczycie, jak zbudować wewnętrznego lub zewnętrznego czatbota z wykorzystaniem LLM-as-a-Service na AWS – bez trenowania modeli i bez skomplikowanej infrastruktury. Prelegent omówi zastosowanie Amazon Bedrock w architekturze Retrieval-Augmented Generation (RAG) do tworzenia prywatnych asystentów AI integrujących się z dokumentami firmowymi w S3. Dowiecie się, jak połączyć Amazon Bedrock z Amazon Connect, tworząc głosowe lub tekstowe czatboty do obsługi klientów. Poruszymy również aspekty bezpieczeństwa (IAM, data isolation), optymalizacji kosztów, nadzoru nad jakością odpowiedzi oraz sposoby weryfikacji i aktualizacji źródeł wiedzy.

Zobacz także:

O nas

Paweł Ufnalewski i Mariusz Dalewski od zawsze żyli w pracy i po pracy światem IT. W 2015 roku założyli na Facebooku grupę SysOps/DevOps Polska. 3 lata później udało się sformalizować działania i dziś jesteśmy Fundacją. SO/DO Team w tym czasie się powiększył i moderuje cztery grupy na Facebooku, których łączna liczba uczestników przekroczyła 64 000.

SO/DO organizuje również cykliczne spotkania dla osób zainteresowanych tematyką SysOps, DevOps i SecOps. Spośród specjalistów wybraliśmy najlepszych w swoich dziedzinach i stworzyliśmy z nimi pełnowymiarowe szkolenia. Wspieramy też inne konferencje polskie i zagraniczne występując w roli prelegentów czy partnerów społecznościowych.

Pobierz raport