ouasse

Membres
  • Compteur de contenus

    1 828
  • Inscription

  • Dernière visite

Tout ce qui a été posté par ouasse

  1. On peut programmer sur PS3 avec un firmware version 2.35, c'est juste qu'on n'a pas accès au RSX, qui n'est de toutes façons pas l'intérêt de la PS3. Donc le hack du système n'a qu'un faible intérêt de mon point de vue. Je trouve qu'avec la PS3 , pas mal de hackers (au sens noble, c'est à dire ceux qui aiment bricoler des trucs inutiles sur des machines improbables) ont déjà largement de quoi être satisfaits, et une carte graphique vieille d'il y a 2 ans n'a pas grand intérêt à leurs yeux, surtout qu'on trouve les mêmes voire mieux sur PC.
  2. warhawk a 4 c'est pas tres marrant...
  3. ouasse

    Hdmi Sous Linux

    Salut, j'ai un écran 24" HDMI avec enceintes intégrées, tout passe nickel en WUXGA 1920x1200. Par contre je crois que les 20" sont en général en WSXGA+ 1680x1050, et là tu vas être coincé entre du 720p (1280x720) ou du WXGA (1280x768). Il n'y a pas de mode WSXGA+ intégré à Linux (pour l'instant ?). bon courage.
  4. ouasse

    Messenger Sous Linux

    salut, amsn fonctionne avec la caméra, sinon moi je préfère pidgin, même s'il ne gère pas la caméra. Je n'ai pas testé le vrai msn live mais je doute que si ça tourne, ça se fasse vite.
  5. ouasse

    Les Spe

    c'est plus compliqué, c'est une machine x86_64 contre une machine hybride x86_64/Cell Et sur le Roadrunner d'après l'article "Sur les plus de 1,6 pétaflops il y en a 1,3 qui viennent des Cell et seulement 0,4 qui viennent des Opterons", donc effectivement y'a du vrai dans ce que tu dis attention il faut faire gaffe quand on parle d'applications précises, comme folding@Home par exemple. Les algorithmes utilisés peuvent ne pas forcément être les plus facilement implémentables sur PS3 par exemple. C'est aussi le cas sur les x86. On parle toujours en termes de puissance "crête" alors qu'effectivement la puissance réelle tombe dès qu'il s'agit d'applications précises. Pour le cas spécifique de Folding@Home, je pense que la différence entre la puissance effective et la puissance crête tient principalement au fait que le Cell de la PS3 est assez mauvais pour les calculs flottants en double précision (variables 64 bits). Il est plus optimisé pour les calculs en simple précision (32 bits). En simple, la puissance crête est de 150 Gflops pour 6 SPE, et en double, elle tombe à environ 15 Gflops. Je pense que le chiffre de 30 Gflops vient du fait que des calculs double précision sont effectués à l'aide d'opérations en simple précision, ce qui curieusement donne de meilleures perfs que si on programmait directement en double précision. C'est en tout cas ce que fait la librairie BLAS pour Cell du SDK d'IBM (librairie de base pour les calculs matriciels, il y en a pour toutes les architectures, comme par exemple l'environnement CUDA pour cartes graphiques NVIDIA, ou des versions SSE pour les x86). Je précise encore que dans le Roadrunner, les Cell utilisés ne sont pas les mêmes que dans la PS3, il s'agit des PowerXCell 8i (ou Cell 2) qui font du 100 Gflops en double précision. certainement, mais pas avant deux ans, temps nécessaire pour mettre au point les gros monstres comme ceux qui voient le jour aujourd'hui
  6. ouasse

    Les Spe

    Je ne comprends pas ce que tu entends par répartir les tâches "à la main". L'exécution de code SPE à partir d'un thread PPE consiste à initialiser un contexte SPE à partir du code à exécuter, puis à le lancer. C'est le noyau qui décide quel SPE va exécuter quel contexte, et peut même faire de l'ordonnancement préemptif entre contextes SPE si plus de contextes sont en cours d'éxécution par rapport au nombre de SPE. C'est grosso modo le même principe que des threads sur un multi core, si tu lances autant de threads que de cores le noyau va se débrouiller pour répartir l'exécution de chaque thread sur les différents cores. Bon sinon, il y a un article super intéressant sur Linuxfr qui parle des prochaines machines qui vont figurer au top500 de ce mois de mai, notamment le Roadrunner qui devrait être la première machine à passer la barrière du pétaflops (1 millions de milliards d'opérations par seconde). Et cette machine est constituée principalement de ... processeurs Cell ! Plus exactement elle est équipée de 6912 Opteron double coeur et 12960 Cell 8i (aussi appelée Cell 2, qui est une version (très) optimisée du Cell que l'on trouve dans les PS3 et autres Cell Blade IBM). Ce qui est clair c'est que le choc "culturel" consistant à passer d'une archi homogène à des archis hétérogènes est en train de s'estomper, il est de plus en plus acquis que le futur sera hétérogène.
  7. ouasse

    Haze

    vous allez presque me donner envie de pas l'acheter
  8. ouasse

    Les Spe

    la suite de ma réponse, parce que le forum limite le nombre de quotes (?!?) Quelques points là dessus : l'hyperthreading ne permet en aucun cas d'atteindre les performances maximales des coeurs. L'exécution parallèle des instructions, cela existe déjà, et cela nécessite un nombre impressionnant de transistors par rapport au gain en puissance. L'hyperthreading permet effectivement de réduire les latences dues aux problèmes de défauts de cache liés aux accès mémoire, mais pour l'exploiter il faut programmer comme si on avait le double voir le quadruple du nombre réels de coeurs qu'on possède. Cela a aussi des coûts en termes algorithmiques et en complexité de programmation. Ces coûts existent aussi quand on programme sur Cell, mais le gain d'un code optimisé pour Cell est bien plus important que pour un code utilisant l'hyperthreading.Pour faire un parallèle, tu parles d'exécuter 4 instructions en un cycle, les SPE permettent d'effectuer une seule opération sur des vecteurs de 4 éléments 32 bits en un seul cycle. Cela revient au même, sauf que cela coûte énormément moins cher en termes de nombre de transistors. Et comme la plupart des calculs multimédia sont facilement parallélisables, c'est tout à fait adapté. Donc si pour le même nombre de transistors j'ai le choix entre un coeur générique hyperthreadé difficile à programmer et deux coeurs simples permettant d'effectuer effectivement deux fois plus de calculs que ce que pourrait théoriquement (c'est à dire jamais) faire le coeur hyperthreadé, je choisis la seconde solution. Intel, avec l'Itanium avait déjà rompu la compatibilité. Egalement avec leur architecture expérimentale à 80 coeurs. Et alors ? Si Windows est volontairement figé sur une architecture unique, ce n'est pas le cas des autres systèmes d'exploitation. D'ailleurs il faut noter que les premiers processeurs SSE font suite au bide suscité par le jeu d'instructions MMX et la mise à disposition des unités vectorielles Altivec des PowerPC d'IBM. Comme quoi, les architectures vectorielles des SPE ne sont pas si novatrices que ça Entièrement d'accord Je ne suis pas on pro-IBM ni un anti-Intel, mais c'est juste que dans les périodes précédentes Intel ne faisait pas grand chose, et ne conservait qu'une faible avance par rapport à ses concurrents, alors qu'ils ont été leaders depuis plus d'une dizaine d'années. Et certains de leurs choix n'ont pas été très judicieux, genre l'Itanium qui ne calculait qu'en nombres flottants (argh !) et son successeur l'Itanium 2 un peu plus utilisable mais avec un rapport performance/puissance électrique consommée catastrophique. IBM et AMD avaient tenu compte depuis longtemps du problème de consommation d'énergie, et Intel n'a fait que suivre le mouvement. Pareil avec le jeu d'instructions 64 bits, qui a été lancé par AMD avec l'Athlon64 et repris plus tard par Intel. Maintenant, il semble qu'Intel se bouge un peu plus, donc cela devient bien plus intéressant !
  9. ouasse

    Les Spe

    De quels types de calculs parles-tu alors ? Et c'est quoi pour toi un processeur de console ? non, ce sont des IBM. Sur le site du classement mondial des supercalculateurs, les deux premiers sont des Blue Gene d'IBM. Le Blue Gene/L est une architecture qui ressemble au Cell avec un peu plus de coeurs génériques, et le Blue Gene/P ressemble plus à une architecture type Power5. D'ailleurs le classement date de novembre 2007, et sur le prochain classement qui ne devrait pas tarder à paraître on devrait trouver en 3eme position un autre Blue Gene/P, acquis par l'IDRIS/CNRS d'Orsay en janvier. . C'est ce que je disais quand je parlais du fait qu'Intel expérimente dans les architectures hybrides. Cela dit, le processeur dont parle l'article est hautement expérimental, et ce type de processeur massivement parallèle ne devrait voir le jour que dans les 4 ou 5 prochaines années. Mais cela donne une bonne idée de ce à quoi vont ressembler les futurs processeurs. La production est en route ... Et sur le Cell IBM justement avait résolu le problème du grand nombre de transistors différemment de la manière d'Intel, en réduisant tout ce qui n'était pas dédié au calcul, plutôt qu'en miniaturisant chaque transistor. Mais l'un n'empêche pas l'autre évidemment. Disons qu'au moment du passage d'Apple aux processeurs Intel, cela faisait un moment que les powerPC d'IBM n'arrivaient pas à rattraper leur retard sur les procs Intel. Depuis IBM a fait son chemin en proposant autre chose. Cela dit, pour des ordinateurs personnels dédiés au multimédia, aux applications graphiques et aux jeux, je trouve dommage qu'Apple ait fait ce choix. Les Mac ne sont plus que des PC haut de gamme maintenant, en concurrence directe avec les machines des autres constructeurs. Lol, Xeon ,itanium ca m'etonnerai puisque ce sont des versions serveurs des core2, donc plus puissants,avec bcp plus de caches. Avec plus de caches, certes, mais surtout moins de coeurs. Des supercalculateurs à base d'Intel ou AMD qui seraient mis en production aujourd'hui auraient des processeurs forcément moins bons que ceux qui sortent en ce moment, ne serait-ce à cause des délais de conception, de mise en place et d'expérimentation nécessaires, qui dépassent largement 12 voire 18 mois. Donc ce type de machine a une architecture forcément déjà dépassée, et les nouvelles machines mises en service sont équipés des processeurs équivalent au haut de gamme d'il y a plus d'un an. Et y'a pas photo, les Xeon éclatent depuis longtemps les Itanium, qui ont une puissance crête encore plus difficile à exploiter que les i386.
  10. ouasse

    Sony perd 260 dollars par PS3...

    Baboulette, je réponds à ton post précédent sur ce topic.
  11. ouasse

    Les Spe

    Salut, pour éviter de faire un gros hors sujet sur cet autre topic et parce que la discussion est intéressante, je crée un autre topic. Je réponds donc au message de baboulette : dommage ce sont ce type de cores qui sont les plus performants pendant ce temps, IBM met au point ses supercalculateurs à base de Cell 3 avec 2 PPE et 16 SPE ... pour être tout à fait exact, il me semble quand même que Intel étudie également l'éventualité d'utiliser des architectures hybrides Tu plaisantes ??? 7 ou 8 spe faces a des dualcores oui, mais face à 8 core, surtout avec un controleur memoire integré, ca m'etonerai . Je parle en termes de performances de calcul brutes. Un SPE (plus exactement un SPU) du Cell de la PS3 a une puissance crête de 25 GFlops. Les Core 2 à 3 GHz ont des puissances crêtes théoriques de 20 à 25 GFlops par coeur. Et c'est là qu'il faut faire très attention avec les chiffres donnés, parce que autant le Cell est prévu pour que le code puisse tourner presque en permanence à la puissance crête, les coeurs génériques à la Core 2 ne tournent et ne tourneront jamais au max de la puissance théorique. Tout simplement parce que les Core doivent tout faire, au milieu des calculs il y a des accès mémoire, des entrées/sorties, de la gestion d'interruptions à faire, ce qui prend un temps qui finit par devenir très important. Or, sur le Cell, les tâches sont réparties : - Les calculs sont faits par les SPE - Les entrées/sorties, la gestion des interruptions sont gérées par le PPE - Les accès mémoire des SPE sont gérés par des unités de gestion mémoire séparées de l'unité de calcul du SPE. En gros, dans un SPE, il y a : - Le SPU (le processeur proprement dit) - Le Local Store (Petite mémoire locale extrêmement rapide, avec temps d'accès similaires à de la mémoire cache) - Le MFC (Memory Flow Controller), qui effectue les transferts mémoire entre le local store et la RAM centrale. On le voit donc bien, les SPU n'ont qu'une chose à faire : calculer. Les accès à la RAM sont gérés par les MFC, et toutes les tâches ingrates (le ménage, les courses, la vaisselle) sont faites par le PPE. détrompe-toi, le Cell à 45 nm existe depuis un moment. IBM est quand même un des leaders du marché des supercalculateurs, ça ferait mal de savoir qu'ils en sont encore aux technologies d'il y a 2 ans ... Bah franchement, tu sais les plus gros supercalculateurs ne sont que qu'un gros paquet de cartes mères avec 2 ou 4 processeurs à 2 ou 4 (et encore) coeurs... La puissance est plus due au nombre de cartes mères utilisées que du nombre de coeurs dans chaque processeur.Un processeur de PC actuel éclate n'importe quel Opteron, Xeon, Itanium (hahaha) ou Power5 utilisé dans les supercalculateurs actuels. Ca, c'est vrai. Un SPE fait du calcul, du calcul, et encore du calcul. Cela dépend de ce que l'on veut faire : veut-on utiliser la machine pour une seule tâche (ou un nombre limité de tâches) et la/les faire à la plus grande vitesse possible, ou veut-on une machine capable d'exécuter un grand nombre de tâches en même temps, style serveur internet ? Pour les applis multimédia, jeux, musique, modélisation 3D ou autre, il est très clair que des coeurs dédiés au calcul seront bien plus utiles que des coeurs qui font tout, même le café, mais moins vite. Pour les applis qui font principalement des accès disque, entrées/sorties, services réseau et autres, des coeurs génériques seront plus adaptés. Tu parles des octo-cores prévus pour l'année prochaine, mais IBM en est déjà au Cell 3 à 16 SPE. Tout simplement parce que les SPE sont plus petits et occupent moins de transistors que des coeurs génériques. Tout ce qui ne sert pas au calcul a été enlevé. C'est très inexact. Effectivement Intel a annoncé récemment vouloir investir dans des procs incluant à la fois des fonctionnalités CPU et GPU, mais cela est plutôt présenté comme du super SSE (ou du "SSE sous stéroïdes"), donc ajouter des extensions très performantes aux CPU, capables d'assurer le travail de rendu graphique que font habituellement les GPU, mais évidemment utilisables aussi pour faire des calculs plus génériques. Il ne s'agit pas d'architectures à coeurs hybrides comme veut faire AMD : des coeurs CPU d'un côté, et des coeurs GPU de l'autre. Peut-être que je me suis trompé en confondant avec AMD, mais il m'avait semblé entendre qu'Intel envisageait également les architectures hybrides avec une répartition entre coeurs génériques et coeurs de calcul. c'est vrai, mais le ratio performance/prix restera longtemps imbattable ! si tu veux plus de puissance qu'un processeur de PS3, achète une deuxième PS3 ! merci !
  12. ouasse

    Sony perd 260 dollars par PS3...

    dommage ce sont ce type de cores qui sont les plus performants pendant ce temps, IBM met au point ses supercalculateurs à base de Cell 3 avec 2 PPE et 16 SPE ... pour être tout à fait exact, il me semble quand même que Intel étudie également l'éventualité d'utiliser des architectures hybrides
  13. après, il faut avoir envie de programmer dessus
  14. tiens c'est balot j'ai upgradé ma deuxième ps3 2.01 hier, pour pouvoir jouer aux jeux en réseau. je vous laisse tester ça a l'air rigolo
  15. ouasse

    Dark_Alex s'attaque à la PS3 ?

    Je comprends pas bien ... Les custom firmware sur PSP n'ont rien ajouté en termes de formats audio et vidéo supportés. Je ne vois pas en quoi un hack de firmware PS3 changerait cela. On attend toujours le ogg vorbis et le divx avec sous titres sur la PSP ...
  16. ouasse

    Dark_Alex s'attaque à la PS3 ?

    6 SPE sur 7 sont dispo sous Linux, c'est vrai que ça limite un peu mais pas tant que ça. la puissance de calcul n'est "que" de 150 GFlops au lieu de 175 ...
  17. ouasse

    Dark_Alex s'attaque à la PS3 ?

    La batterie Pandora c'est pas Noobz, c'est la team C+D, et effectivement Dark_AleX en fait partie. J'avoue ne pas bien savoir si c'est lui ou non qui a mis en évidence le fonctionnement des batteries Pandora et de l'exécution des IPL sur memory stick. En tout cas il est surtout connu pour ses compétences en modification de système et ce qui tourne autour (custom firmware, downgrades), c'est pourquoi je doutais que ce soit lui qui soit à l'origine du projet Pandora. Selon ce qu'on connait de lui, j'imaginais qu'il avait surtout bossé sur l'outil de flashage intégré au kit Pandora. Autre élément, le firmware que le kit Pandora original flashait était un firmware 1.5, et pas un custom Firmware. Le kit Pandora pour custom firmware a été sorti après par Dark_AleX, et sous un autre nom (Despertar machin). Enfin, cela n'a pas de grande importance, tout le monde est d'accord pour dire que ce hacker est très fort. Je dis juste que ce n'est pas dans le domaine des attaques de protection qu'il est le plus renommé, c'est tout. Edit: c'était une réponse à mrbelou, il y a eu plusieurs réponses entre le début et la fin de ma réponse
  18. ouasse

    Dark_Alex s'attaque à la PS3 ?

    Faut quand même pas exagérer, loin de moi l'idée de dénigrer le boulot de D_A mais il a surtout beaucoup bossé sur le custom firmware, mais ce n'est pas lui qui a permis l'exécution de code sur la PSP. Il n'est pas l'auteur du swaploit, ni du KXploit, ni des exploits tiff, ni des différents exploits GTA ou Lumines. Je ne crois pas non plus qu'il soit à l'origine du hack et de la création des batteries Pandora. Il a par contre une énorme connaissance du système et du hardware de la PSP, ce qui je crains ne va pas beaucoup l'aider pour la PS3, si jamais il compte vraiment s'y mettre.
  19. Salut, je confirme, j'ai testé un moniteur récent de chez samsung (un 19", presque le même) relié à une ps3 avec un cable hdmi/dvi, et ça marche sans souci. Y'a pas de raison que ce soit différent en utilisant un adaptateur hdmi/dvi. sinon pour roberto, le mieux si tu es intéressé par un moniteur en particulier est de faire une petite recherche google avec le modèle d'écran, tu tomberas toujours sur une fiche technique qui te dira si l'entrée DVI est HDCP ou pas. si c'est pas marqué HDCP, ça ne marchera pas. Si ça l'est, pas de souci.
  20. Bah tu t'es mal démerdé ! Extrait de la doc officielle PS3/linux. Section "How to use kboot", paragraphe 4 "Mounting File System" : En gros ça dit que fait kboot: - Il cherche dans l'ordre sur le lecteur BD, les éventuels disques USB et le disque dur interne. - Il cherche une partition "active" (ce qui correpond au flag "bootable" lors du partitionnement du disque) et vérifie qu'elle est au format ext2, ext3, fat ou iso. - Si une telle partition existe il lit le fichier /etc/kboot.conf qui est dessus et contient les infos pour booter, et donc contient les différents modes de boot de la distrib. Donc on peut booter sur un disque USB, rien ne l'empêche.
  21. ouasse

    Ubuntu Wifi

    et il faut un wpa_supplicant compatible avec le driver wifi des derniers noyaux linux ps3, je ne sais pas où ils en sont en ce moment sur Ubuntu. Sinon j'ai compilé le mien sur Debian, si ça t'intéresse je peux te filer ça.
  22. ouasse

    émulation Sous Linux

    sinon moi je fais tourner mes vieux codes Atari ST sur l'émulateur "hatari", ça marche super, sauf si on essaye d'agrandir la taille de la fenêtre. Les vieilles démos marchent plutôt pas mal, pour celles que j'ai testées. Après pour les jeux, j'ai pas essayé (m'en fous en fait).
  23. Je ne vois pas ce qui empêcherait de booter sur une partition de disque dur USB, il suffit de partitionner le disque avec au moins une partition ext3 avec flag bootable et une partition swap. Par contre je ne garantis pas les perfs d'accès disque, c'est comme de l'usb, quoi.
  24. ouasse

    [n00b] Les Bordures D'écran

    en fait mon sony ne permet visiblement pas de faire du 720p sans overscan. Par contre il y a le mode WXGA 1280x768 qui passe en totalité, moyennant des bordures noires à gauche et à droite (pourquoi diable n'y a-t-il pas de mode 1366x768, résolution native de pas mal d'écrans HD ready ???) sinon maintenant j'utilise plutot un écran de PC, 24 pouces HDMI, supportant le Full HD et fonction pour désactiver l'overscan.
  25. ouasse

    émulation Sous Linux

    c'est ton écran qui zoome automatiquement les modes HD. certains écrans ont des réglages permettent de régler l'overscan et de le désactiver. sinon autre solution c'est de passer en mode WXGA (1280x768), avec le mode 11 de ps3videomode. mais ça fait des bords noirs à gauche et à droite de l'écran.