Questions à Jean-Marc - articles archivés

Abonnez-vous au flux RSS feed pour cette catégorie uniquement

 

La norme EXIF mentionne SubjectDistanceRange mais ce n’est généralement pas une distance – cette valeur est généralement totalement inutilisable. FocalDistanceUpper et FocalDistanceLower semblent rarement disponibles – et lorsqu’elles le sont il y a toujours SubjectDistance qui est bien plus prometteur.

SubjectDistance est donné aux boitiers compatibles E-TTL II par les objectifs Canon E-TTL II, en fonction de la rotation de la bague de mise au point – c’est donc la distance de mise au point, qui n’est la distance au sujet que si la mise au point a bien eu lieu sur le sujet… Ce qui est loin d’être garanti – mais gageons que c’est le cas.

Cette liste d’objectifs compatibles et incompatibles date de 2004 mais c’est mieux que rien. Vu le peu de coopération de la part de Canon dont les autres fabricants bénéficient pour assurer la compatibilité de leurs objectifs (Canon ne leur donne même pas les spécifications du protocole de communication), on peu s’attendre à ce que quasiment aucun objectif non-Canon ne fournisse la distance de mise au point.

Vu que la valeur est liée à la mise au point, la progression est logarithmique et donc d’autant plus précise que la distance est faible. Ca c’est la bonne nouvelle. La moins bonne c’est que ce n’est pas une progression continue – il y a des marches d’escalier qui pourraient rendre la précision inacceptable . A part ça, l’infini commence entre 80 et 500 mètres…

Au Nikonland, SubjectDistance s’appelle ApproximateFocusDistance et à vue de nez le principe est le même. Vu que ce n’est pas un champ normalisé par l’EXIF, pourquoi se priver de choisir un nom différent ?

En Février est prévu l’appel à candidatures pour les licences des fréquences restantes dans la bande des 2.1 GHz, sous la forme de 3 lots de 5 MHz dont un réservé à un nouvel entrant. Il n’est donc pas étonnant que de nombreux acteurs s’interrogent sur l’opportunité de cette offre, d’autant que les tranches sont plutôt maigres et plutôt chères. En témoigne cette question que j’ai reçue ce matin :

Also sprach somebody [Fri, Feb 06, 2009 at 11:25:00AM +0100] :
>
> Je me pose une question (pour le compte d’un client opérateur mobile) :
> si un opérateur alternatif acquiert 5MHz de fréquence 3G (plus 5
> dans la bande des 900 MHz), quel en sera l’impact sur l’expérience
> client X le nombre de clients ? L’idée est de savoir s’il sera
> possible de lancer des services consommateurs de bande passante (TV,
> Internet illimité, etc.) sur les zones denses où seront les premiers
> clients sans être rapidement limité, ou si ce futur opérateur sera
> nécessairement contraint pour la majorité de ses clients à des
> services mobiles de base.

 

Si on prend l’exemple du HSDPA, l’efficience spectrale est de 2.88 bits par Hz par cellule soit 14.4 Mb/s pour une tranche de 5 MHz. Mais en EDGE, l’efficience spectrale n’est que de 0.33 bit par Hz par cellule. Une bande de fréquence de largeur équivalente a donc beaucoup plus de valeur en 3G.

Coincidence probablement non fortuite, les 14.4 Mb/s supportés par une tranche de 5 MHz en HSDPA correspondent exactement au débit maximal permis par cette norme entre le mobile et un node B – ce qui permettra aux opérateurs d’annoncer la vitesse maximale permise par la norme. On trouvera probablement en tout petits caractères en bas de page une note mentionnant qu’il s’agit d’un débit partagé entre tous les utilisateurs d’une cellule, mais ne laissons pas ces détails gâcher une bonne publicité !

On parle de débit par cellule – la question n’est donc pas le nombre global de clients sur un réseau mais le nombre de clients par cellule. Le ratio entre la densité de la population cliente et la taille des cellules est donc un critère essentiel. L’optimisation à calculer est alors entre le cout de la densité de la couverture par le réseau et le cout d’acquisition des tranches de fréquence – le tout pour une qualité de service donnée. Nulle doute qu’un certain nombre de tels modèles tournent en ce moment.

Stéphanie wrote:
>
> D'ailleurs quelqu'un pourrait-il nous indiquer si on peut télécharger
> sur notre disque dur l'integralité des photos de Flickr sans faire un
> "enregistrer sous" photo par photo ? (nous y sommes parvenus seulement
> sur le site de Jean-Marc qui n'est pas chez Flickr...)

Les sites commerciaux ne sont évidemment pas naturellement enclins à encourager les utilisateurs à exporter les données… Mais l’API de Flickr le permet néanmoins et des outils tiers existent donc pour y parvenir. Parmi eux les plus connus on trouve entre autres :

downloadr dont la page est en allemand mais l’outil lui-même possède une interface en anglois. Une archive du binaire pour Windows est disponible ainsi qu’un groupe de discussion Flickr qui est dédié à downloadr.

FlickrDown par Greggman repose sur une bibliothèque .Net pour l’API de Flickr et devrait donc en théorie fonctionner avec Mono. En tout cas il fonctionne au moins sous Windows.

Fetchr par Brian Larsen est également une implémenation en .Net. Il semble plus simple mais sûrement moins mature que FlickrDown.

Slickr (encore du .Net – décidément les développeurs Flick aiment bien .Net…) est conçu pour produire des diaporamas, mais comme il copie toutes les images vers un répertoire local, il est tout à fait fonctionnel pour le téléchargement en masse.

Flickr Downloadr exploite pour sa part la bibliothèque Java flickrj pour l’API de Flickr et il est annoncé comme effectivement multi-plateforme (au moins Mac OS X, Linux et Windows)… Mais son auteur ne l’a pas encore publié et nous laisse un poil frustrés.

– Heureusement pour les non-Windowsiens, flickr downloader propose un outil fort pratique basé sur un formulaire et une applet Java. Autrement dit il suffit d’un browser et d’une JVM pour s’en servir, ce qui devrait le rendre accessible à une très large population.

– Mais la palme de l’outil le plus élégant revient sans nul doute à flickrfs par Manish Rai Jain qui permet tout simplement de monter un compte Flickr comme un système de fichiers sous Linux.

– Quand à mon préféré c’est de loin Flickr_download par Stefano Zacchiroli. Il s’agit d’un script en Ruby. Une sortie vaut toutes les descriptions :

 $ flickr_download -u zacchiro -i 72157594247689892
 will download 53 photos(s)
 starting download of http://static.flickr.com/73/222421262_38df10594a_o.jpg ...
 starting download of http://static.flickr.com/91/222420881_3b49a57f11_o.jpg ...
 starting download of http://static.flickr.com/61/222420518_b2ad6ddf1a_o.jpg ...
 [..]
 Starting download of http://static.flickr.com/72/222392122_80b8041c47_o.jpg ...
 waiting for all downloads to complete ...
 all done.

L’auteur de Flickr_download remarque néanmoins que toute cette classe d’outils souffre de limitations imposées par les limites des privilèges accordés par l’API de Flickr. Je m’apperçois donc qu’un certain nombre de ceux cités dans cette liste sont probablement nettement plus utiles avec vos propres comptes qu’avec le compte d’un tiers. A vous de trouver ceux qui correspondent à vos besoins !

Mon pote Bidule wrote:
>
> Nous avons décidé de nous équiper d’1 voire 2 disques durs externes pour
> prévenir tout crash potentiel de notre ordi, et nous aurions besoin de
> tes lumières pour savoir quoi acheter, et où. Nous utilisons aujourd’hui ~50 Go
> de notre disque, mais un back-up de 200 Go me semblerait bien.
>
> Qu’en penses-tu ?

Il y a dans le monde deux catégories d’utilisateurs: ceux qui ont subi au moins une grosse perte de données importantes et ceux à qui ça va arriver. C’est donc une bonne idée de pensez à la sauvegarde avant que ça n’arrive…

Dans un cas comme le tien, l’idéal est d’avoir deux disques : l’un chez toi (branché uniquement pendant la sauvegarde) et l’autre par exemple chez des amis. Toutes les ‘n’ semaines tu permuteras les disques. Comme ça tu as toujours une sauvegarde récente à portée de main et une sauvegarde un peu moins récente en cas de grosse catastrophe voire tout simplement de cambriolage – une ocurence dans nos contrées plus fréquente que les cataclysmes divers.

Je ne connais pas les logiciels pour la sauvegarde sous Windows. Je peux néanmoins te prévenir qu’il y a une différence entre une copie et une sauvegarde : la sauvegarde maintient un historique des versions antérieures te permettant de revenir à un point donné, alors que la copie n’est que la dernière version copiée. Lorsque les dommages ont été occasionnés par une infection virale qui a eu lieu plusieurs semaines avant qu’on s’en aperçoive, une sauvegarde permettant de récupérer des fichiers dans l’état où ils étaient à cette époque est très utile.

Vue la nécessité de conserver un historique, le volume de sauvegarde doit être plus grand que le volume sauvegardé, d’une marge plus ou moins importante en fonction du taux de renouvellement des fichiers.

Le disque étant destiné à être sous tension pendant de courtes durées, la ventilation n’est pas une fonctionnalité critique. Par contre prends l’interface la plus rapide qui soit compatible avec les hôtes auxquels tu destines ce disque.

Enfin, avec un peu de recul on constate que même si la sauvegarde est une étape essentielle, elle n’est finalement que la première étape du processus de protection contre les pertes de données. Le plus important ce n’est pas la sauvegarde : c’est la restauration. Tester les sauvegardes régulièrement, c’est fastidieux mais moins douloureux que de s’apercevoir au moment de restaurer que les données sont dans un format illisible ou bien tout simplement absentes…

Mes amis me posent régulièrement des questions sur des sujets pour lesquels ils me considèrent de bon conseil. Nombre d’entre eux sont peu enclins à l’interaction communautaire publique et les questions me sont donc quasiment toujours adressées par messagerie. Mes réponses ne profitent donc qu’à l’auteur de la question.

Sur de nombreuses listes de discussion et de nombreux forums, les contributeurs réguliers refusent généralement de répondre à une question qui n’est pas postée publiquement. Il garantissent ainsi que leur réponse profitera systématiquement à l’ensemble de la communauté et que d’autres contributeurs pourront éventuellement aussi y apporter leur brique et les aider eux-aussi à faire progresser la connaissance du sujet.

Bien sûr je n’irai pas jusqu’à envoyer mes amis sur les roses, mais la systématisation de la publication me paraît être une démarche saine de contribution à la communauté, d’autant que son coût est nul.

Pour aller dans ce sens, j’inaugure donc aujourd’hui la catégorie “Questions à Jean-Marc” où je répondrai publiquement aux questions de mes amis. Bien entendu j’anonymiserai leurs questions et me limiterai à des sujet ne révèlant pas d’informations exposant leur vie privée.